Particle filtering is now established as one of the most popular methods for visual tracking. Within this framework, a basic
assumption is that the data are temporally independent given the sequence of object states. In this paper, we argue that in
general the data are correlated, and that modeling such dependency should improve tracking robustness. Besides, the
choice of using the transition prior as proposal distribution is also often made. Thus, the current observation data is not
taken into account in the generation of the new samples, requesting the noise process of the prior to be large enough to
handle abrupt trajectory changes between the previous image data and the new one. Therefore, many particles are either
wasted in low likelihood area, resulting in a low efficiency of the sampling, or, more importantly, propagated on near
distractor regions of the image, resulting in tracking failures. In this paper, we propose to handle both issues using motion.
Explicit motion measurements are used to drive the sampling process towards the new interesting regions of the image,
while implicit motion measurements are introduced in the likelihood evaluation to model the data correlation term. The
proposed model allows to handle abrupt motion changes and to filter out visual distractors when tracking objects with
generic models based on shape or color distribution representations. Experimental results compared against the
CONDENSATION algorithm have demonstrated superior tracking performance.Le filtrage par méthode de Monte-Carlo séquentielle (MCS) est l’une des méthodes les plus populaires pour
effectuer du suivi visuel. Dans ce contexte, une hypothèse importante faite généralement stipule que, étant
donnée la position d’un objet dans des images successives, les observations extraites de ces dernières sont
indépendantes. Dans cet article, nous soutenons que, au contraire, ces observation sont fortement corrélées et
que la prise en compte de cette corrélation permet d’améliorer le suivi. Par ailleurs, un choix relativement
fréquent consiste à utiliser le modèle dynamique a priori comme fonction de proposition. Par conséquent la
génération des échantillons à l’instant courant se fait en aveugle, c’est-à-dire sans exploiter d’information liée à
l’image courante. Il en résulte que la variance du bruit dans le modèle dynamique doit être fixée à une valeur
importante afin de pouvoir appréhender de rapides changements de trajectoire. De ce fait de nombreuses
particules sont générées inutilement dans des régions de faible vraisemblance, ce qui réduit l’efficacité de
l’échantillonnage, ou sont propagées sur des ambiguïtés voisines de la vraie trajectoire, ce qui, ultérieurement,
peut conduire à des erreurs de suivi. Dans cet article, nous proposons d’utiliser le mouvement visuel afin de
remédier aux deux problèmes soulevés. Des mesures de mouvement explicites sont utilisées pour diriger
l’échantillonnage vers les nouvelles régions intéressantes de l’image, tandis que des mesures implicites et
explicites sont introduites dans la distribution de vraisemblance afin de modéliser la corrélation entre données
temporelles. Le nouveau modèle permet d’appréhender des mouvements brusques et de lever des ambiguïtés
visuelles tout en gardant des modèles d’objet simples basés sur des contours ou des distribution de couleurs,
comme le montrent les résultats obtenus sur plusieurs séquences et comparés à la méthode classique de
CONDENSATION