138 research outputs found

    Making use of partial knowledge about hidden states in HMMs : an approach based on belief functions.

    No full text
    International audienceThis paper addresses the problem of parameter estimation and state prediction in Hidden Markov Models (HMMs) based on observed outputs and partial knowledge of hidden states expressed in the belief function framework. The usual HMM model is recovered when the belief functions are vacuous. Parameters are learnt using the Evidential Expectation- Maximization algorithm, a recently introduced variant of the Expectation-Maximization algorithm for maximum likelihood estimation based on uncertain data. The inference problem, i.e., finding the most probable sequence of states based on observed outputs and partial knowledge of states, is also addressed. Experimental results demonstrate that partial information about hidden states, when available, may substantially improve the estimation and prediction performances

    Segmentation non supervisée d'images non stationnaires avec champs de Markov évidentiels

    Get PDF
    - Fréquemment utilisés en traitement statistique d'images, les champs de Markov cachés (CMC) sont des outils puissants qui peuvent fournir des résultats remarquables. Cette qualité est principalement due à l'aptitude du modèle de prendre en compte des dépendances spatiales des variables aléatoires, même lorsqu'elles sont en très grand nombre, pouvant dépasser le milion. Dans un tel modèle le champ caché X est supposé markovien et doit être estimé à partir du champ observé Y . Un tel traitement est possible du fait de la markovianité de X conditionnellement Y . Ce modèle a été ensuite généralisé au champs de Markov couples (CMCouple), où l'on suppose directement la markovianité du couple (X,Y), qui offrent les mêmes possibilités de traitements que les CMC et permettent de mieux modéliser le bruit ce qui permet, en particulier, de mieux prendre en compte l'existence des textures. Par la suite, les CMCouples ont été généralisés aux champs de Markov triplet (CMT), où la loi du couple (X,Y) est une loi marginale d'un champ de Markov triplet T = (X,U,Y), avec un champ auxiliaire U . Par ailleurs, la théorie de l'évidence peut permettre une amélioration des résultats obtenus par des traitements bayésiens dans certaines situations. Le but de cet article est d'aborder le problème de la segmentation non supervisée d'images non stationnaires en utilisant les champs de Markov évidentiels (CME), en exploitant, en particulier, un lien existant entre les CME et les CMT

    Fusion de Dempster–Shafer dans les chaînes triplet partiellement de Markov

    Get PDF
    International audienceHidden Markov Chains (HMC), Pairwise Markov Chains (PMC), and Triplet Markov Chains (TMC), allow one to estimate a hidden process X from an observed process Y. More recently, TMC have been generalized to Triplet Partially Markov chain (TPMC), where the estimation of X from Y remains workable. Otherwise, when introducing a Dempster-Shafer mass function instead of prior Markov distribution in classical HMC, the result of its Dempster-Shafer fusion with a distribution provided Y = y, which generalizes the posterior distribution of X, is a TMC. The aim of this Note is to generalize the latter result replacing HMC with multisensor TPMC.Les Chaînes de Markov Cachées (CMC), Chaînes de Markov Couple (CMCouple), ou Chaînes de Markov Triplet (CMT), permettent d'estimer un processus caché X à partir d'un processus observé Y. Récemment, les CMT ont été généralisées aux Chaînes Triplet Partiellement de Markov (CTPM), où l'estimation de X demeure possible. Par ailleurs, lorsque dans une CMC classique la loi a priori est remplacée par une masse de Dempster-Shafer, le résultat de la fusion de cette dernière avec une loi définie par Y = y, qui généralise la loi a posteriori de X, est une CMT. L'objet de cette Note est de généraliser ce dernier résultat de CMC aux CTPM multicapteu

    Evidential Markov chains and trees with applications to non stationary processes segmentation

    Get PDF
    The triplet Markov chains (TMC) generalize the pairwise Markov chains (PMC), and the latter generalize the hidden Markov chains (HMC). Otherwise, in an HMC the posterior distribution of the hidden process can be viewed as a particular case of the so called "Dempster's combination rule" of its prior Markov distribution p with a probability q defined from the observations. When we place ourselves in the theory of evidence context by replacing p by a mass function m, the result of the Dempster's combination of m with q generalizes the conventional posterior distribution of the hidden process. Although this result is not necessarily a Markov distribution, it has been recently shown that it is a TMC, which renders traditional restoration methods applicable. Further, these results remain valid when replacing the Markov chains with Markov trees. We propose to extend these results to Pairwise Markov trees. Further, we show the practical interest of such combination in the unsupervised segmentation of non stationary hidden Markov chains, with application to unsupervised image segmentation.Les chaînes de Markov Triplet (CMT) généralisent les chaînes de Markov Couple (CMCouple), ces dernières généralisant les chaînes de Markov cachées (CMC). Par ailleurs, dans une CMC la loi a posteriori du processus caché, qui est de Markov, peut être vue comme une combinaison de Dempster de sa loi a priori p avec une probabilité q définie à partir des observations. Lorsque l'on se place dans le contexte de la théorie de l'évidence en remplaçant p par une fonction de masse m, sa combinaison de Dempster avec q généralise ainsi la probabilité a posteriori. Bien que le résultat de cette fusion ne soit pas nécessairement une chaîne de Markov, il a été récemment établi qu'il est une CMT, ce qui autorise les divers traitements d'intérêt. De plus, les résultats analogues restent valables lorsque l'on généralise les différentes chaînes de Markov aux arbres de Markov. Nous proposons d'étendre ces résultats aux arbres de Markov Couple, dans lesquels la loi du processus caché n'est pas nécessairement de Markov. Nous montrons également l'intérêt pratique de ce type de fusion dans la segmentation non supervisée des chaînes de Markov non stationnaires, avec application à la segmentation d'images

    Arbres de Markov Triplet et théorie de l'évidence

    Get PDF
    Les chaînes de Markov Triplet (CMT) généralisent les chaînes de Markov Couple (CMCouple), ces dernières généralisant les chaînes de Markov cachées (CMC). Par ailleurs, dans une CMC la loi a posteriori du processus caché, qui est de Markov, peut être vue comme une fusion de Dempster-Shafer (fusion DS) de sa loi p avec une probabilité q définie à partir des observations. Lorsque l'on se place dans le contexte de la théorie de l'évidence en remplaçant p par une fonction de masse M, sa fusion DS avec q généralise la probabilité a posteriori. Bien que le résultat de cette fusion ne soit pas nécessairement une chaîne de Markov, il a été établi qu'il est une CMT, ce qui autorise les divers traitements d'intérêt. De plus, les résultats analogues restent valables lorsque l'on généralise les différentes chaînes de Markov aux arbres de Markov. Nous proposons d'étendre ces résultats aux chaînes et arbres de Markov Couple, dans les quels la loi du processus caché n'est pas nécessairement de Markov. Nous montrons également l'intérêt pratique de la théorie de l'évidence dans la segmentation non supervisée des chaînes de Markov non stationnaires

    Arbres de Markov Triplet et fusion de Dempster–Shafer

    Get PDF
    International audienceThe hidden Markov chains (HMC) (X,Y) have been recently generalized to triplet Markov chains (TMC), which enjoy the same capabilities of restoring a hidden process X from the observed process Y. The posterior distribution of X can be viewed, in an HMC, as a particular case of the so called "Dempster-Shafer fusion" (DS fusion) of the prior Markov with a probability q defined from the observation Y=y. As such, when we place ourselves in the Dempster-Shafer theory of evidence by replacing the probability distribution of X by a mass function M having an analogous Markov form (which gives again the classical Markov probability distribution in a particular case), the result of DS fusion of M with q generalizes the conventional posterior distribution of X. Although this result is not necessarily a Markov distribution, it has been recently shown that it is a TMC, which renders traditional restoration methods applicable. The aim of this Note is to present some generalizations of the latter result: (i) more general HMCs can be considered; (ii) q, which can possibly be a mass function Q, is itself a result of the DS fusion; and (iii) all these results are finally specified in the hidden Markov trees (HMT) context, which generalizes the HMC one.Les chaînes de Markov cachées (CMC) (X,Y) ont été récemment généralisées aux chaînes de Markov Triplet (CMT), lesquelles gardent les mêmes pouvoirs de restauration du processus caché X à partir du processus observé Y. Par ailleurs, dans une CMC (X,Y) la loi a posteriori de X, qui est de Markov, peut être vue comme une fusion de Dempster-Shafer (fusion DS) de sa loi a priori avec une probabilité q définie à partir des observations Y=y. Lorsque l'on se place dans le contexte de la théorie de l'évidence en remplaçant la loi de X par une fonction de masse M admettant une écriture markovienne similaire (une modélisation plus générale redonnant le modèle classique pour une M particulière), sa fusion DS avec q généralise la probabilité a posteriori. Bien que le résultat de cette fusion ne soit, en général, pas une chaîne de Markov, il a été établi qu'il est une CMT, ce qui autorise les divers traitements d'intérêt. L'objet de cette Note est de présenter diverses généralisations de ce dernier résultat : (i) extension aux CMC plus généraux ; (ii) q, qui peut éventuellement être une fonction de masse Q, est elle même résultat de fusion DS ; enfin, (iii) tous les résultats sont étendus aux arbres de Markov cachés (AMC), qui englobent les CMC

    Markov models in image processing

    Get PDF
    The aim of this paper is to present some aspects of Markov model based statistical image processing. After a brief review of statistical processing in image segmentation, classical Markov models (fields, chains, and trees) used in image processing are developed. Bayesian methods of segmentation are then described and different general parameter estimation methods are presented. More recent models and processing techniques, such as Pairwise and Triplet Markov models, Dempster-Shafer fusion in a Markov context, and generalized mixture estimation, are then discussed. We conclude with a nonexhaustive desciption of candidate extensions to multidimensional, multisensor, and multiresolution imagery. Connections with general graphical models are also highlighted.L'objet de l'article est de présenter divers aspects des traitements statistiques des images utilisant des modèles de Markov. En choisissant pour cadre la segmentation statistique nous rappelons brièvement la nature et l'intérêt des traitements probabilistes et présentons les modèles de Markov cachés classiques : champs, chaînes, et arbres. Les méthodes bayésiennes de segmentation sont décrites, ainsi que les grandes familles des méthodes d'apprentissage. Quelques modèles ou méthodes de traitements plus récents comme les modèles de Markov Couple et Triplet, la fusion de Dempster-Shafer dans le contexte markovien, ou l'estimation des mélanges généralisés sont également présentés. Nous terminons par une liste non exhaustive des divers prolongements des méthodes et modèles vers l'imagerie multidimensionnelle, multisenseurs, multirésolution. Des liens avec les modèles graphiques généraux sont également brièvement décrits

    Prognostics in switching systems: Evidential markovian classification of real-time neuro-fuzzy predictions.

    No full text
    International audienceCondition-based maintenance is nowadays considered as a key-process in maintenance strategies and prognostics appears to be a very promising activity as it should permit to not engage inopportune spending. Various approaches have been developed and data-driven methods are increasingly applied. The training step of these methods generally requires huge datasets since a lot of methods rely on probability theory and/or on artificial neural networks. This step is thus time-consuming and generally made in batch mode which can be restrictive in practical application when few data are available. A method for prognostics is proposed to face up this problem of lack of information and missing prior knowledge. The approach is based on the integration of three complementary modules and aims at predicting the failure mode early while the system can switch between several functioning modes. The three modules are: 1) observation selection based on information theory and Choquet Integral, 2) prediction relying on an evolving real-time neuro-fuzzy system and 3) classification into one of the possible functioning modes using an evidential Markovian classifier based on Dempster-Shafer theory. Experiments concern the prediction of an engine health based on more than twenty observations

    Algorithmes Forward-Backward et décodage de Viterbi dans le cadre du Modèle des Croyances Transférables : Application à la classification de séquences vidéos

    Get PDF
    Nous présentons une version crédibiliste des Modèles de Markov Cachés, particulièrement les procédures « forward », « backward » et « Viterbi » définies dans le cadre du Modèle des Croyances Transférables de Smets. La reformulation est basée sur le Théorème de Bayes Généralisé ainsi que sur les travaux de Smets sur les Réseaux Evidentiels. Un critère basé sur le conflit est aussi proposé pour inférer des séquences. Les algorithmes proposés sont testés sur des vidéos d'athlétisme
    corecore