7 research outputs found
Segmentation multi-vues par coupure de graphes
National audienceDans cet article, nous abordons le problème de la segmentation simultanée d'images lorsque plusieurs caméras calibrées et synchronisées observent la même scène. Nous proposons une nouvelle approche permettant de propager l'information de segmentation de manière cohérente entre les vues. Pour cela, le problème de segmentation est formulé comme un problème d'étiquetage en deux régions fond et forme des pixels de l'image, résolu avec une méthode de coupe de graphe. Contrairement à de nombreuses approches de l'état de l'art, notre méthode ne nécessite pas de reconstruction 3D dense de l'objet mais plus simplement un échantillonnage éparse de l'espace 3D. Une évaluation complète est effectuée sur des données statiques standard. Les résultats obtenus montrent l'intérêt de la méthode qui obtient des résultats équivalents à ceux de l'état de l'art mais avec beaucoup moins de points de vue
Segmentation multi-vues par coupure de graphes
National audienceDans cet article, nous abordons le problème de la segmentation simultanée d'images lorsque plusieurs caméras calibrées et synchronisées observent la même scène. Nous proposons une nouvelle approche permettant de propager l'information de segmentation de manière cohérente entre les vues. Pour cela, le problème de segmentation est formulé comme un problème d'étiquetage en deux régions fond et forme des pixels de l'image, résolu avec une méthode de coupe de graphe. Contrairement à de nombreuses approches de l'état de l'art, notre méthode ne nécessite pas de reconstruction 3D dense de l'objet mais plus simplement un échantillonnage éparse de l'espace 3D. Une évaluation complète est effectuée sur des données statiques standard. Les résultats obtenus montrent l'intérêt de la méthode qui obtient des résultats équivalents à ceux de l'état de l'art mais avec beaucoup moins de points de vue
Sparse Multi-View Consistency for Object Segmentation
International audienceMultiple view segmentation consists in segmenting objects simultaneously in several views. A key issue in that respect and compared to monocular settings is to ensure propagation of segmentation information between views while minimizing complexity and computational cost. In this work, we first investigate the idea that examining measurements at the projections of a sparse set of 3D points is sufficient to achieve this goal. The proposed algorithm softly assigns each of these 3D samples to the scene background if it projects on the background region in at least one view, or to the foreground if it projects on foreground region in all views. Second, we show how other modalities such as depth may be seamlessly integrated in the model and benefit the segmentation. The paper exposes a detailed set of experiments used to validate the algorithm, showing results comparable with the state of art, with reduced computational complexity. We also discuss the use of different modalities for specific situations, such as dealing with a low number of viewpoints or a scene with color ambiguities between foreground and background
N-Tuple Color Segmentation for Multi-View Silhouette Extraction
International audienceWe present a new method to extract multiple segmentations of an object viewed by multiple cameras, given only the camera calibration. We introduce the n-tuple color model to express inter-view consistency when inferring in each view the foreground and background color models permitting the final segmentation. A color n-tuple is a set of pixel colors associated to the n projections of a 3D point. The first goal is set as finding the MAP estimate of background/foreground color models based on an arbitrary sample set of such n-tuples, such that sam- ples are consistently classified, in a soft way, as "empty" if they project in the background of at least one view, or "occupied" if they project to foreground pixels in all views. An Expectation Maximization framework is then used to alternate between color models and soft classifications. In a final step, all views are segmented based on their attached color models. The approach is significantly simpler and faster than previous multi-view segmentation methods, while providing results of equivalent or better quality
Novel Methods and Algorithms for Presenting 3D Scenes
In recent years, improvements in the acquisition and creation of 3D models gave rise to
an increasing availability of 3D content and to a widening of the audience such content
is created for, which brought into focus the need for effective ways to visualize and
interact with it.
Until recently, the task of virtual inspection of a 3D object or navigation inside a 3D
scene was carried out by using human machine interaction (HMI) metaphors controlled
through mouse and keyboard events.
However, this interaction approach may be cumbersome for the general audience.
Furthermore, the inception and spread of touch-based mobile devices, such as smartphones
and tablets, redefined the interaction problem entirely, since neither mouse nor
keyboards are available anymore. The problem is made even worse by the fact that these
devices are typically lower power if compared to desktop machines, while high-quality
rendering is a computationally intensive task.
In this thesis, we present a series of novel methods for the easy presentation of 3D
content both when it is already available in a digitized form and when it must be acquired
from the real world by image-based techniques. In the first case, we propose
a method which takes as input the 3D scene of interest and an example video, and it
automatically produces a video of the input scene that resembles the given video example.
In other words, our algorithm allows the user to replicate an existing video, for
example, a video created by a professional animator, on a different 3D scene.
In the context of image-based techniques, exploiting the inherent spatial organization
of photographs taken for the 3D reconstruction of a scene, we propose an intuitive
interface for the smooth stereoscopic navigation of the acquired scene providing an immersive
experience without the need of a complete 3D reconstruction.
Finally, we propose an interactive framework for improving low-quality 3D reconstructions
obtained through image-based reconstruction algorithms. Using few strokes on
the input images, the user can specify high-level geometric hints to improve incomplete
or noisy reconstructions which are caused by various quite common conditions
often arising for objects such as buildings, streets and numerous other human-made
functional elements
Segmentation multi-vues d'objet
There has been a growing interest for multi-camera systems and many interesting works have tried to tackle computer vision problems in this particular configuration. The general objective is to propose new multi-view oriented methods instead of applying limited monocular approaches independently for each viewpoint. The work in this thesis is an attempt to have a better understanding of the multi-view object segmentation problem and to propose an alternative approach making maximum use of the available information from different viewpoints.Multiple view segmentation consists in segmenting objects simultaneously in several views. Classic monocular segmentation approaches reason on a single image and do not benefit from the presence of several viewpoints. A key issue in that respect is to ensure propagation of segmentation information between views while minimizing complexity and computational cost. In this work, we first investigate the idea that examining measurements at the projections of a sparse set of 3D points is sufficient to achieve this goal. The proposed algorithm softly assigns each of these 3D samples to the scene background if it projects on the background region in at least one view, or to the foreground if it projects on foreground region in all views. A complete probabilistic framework is proposed to estimate foreground/background color models and the method is tested on various datasets from state of the art.Two different extensions of the sparse 3D sampling segmentation framework are proposed in two scenarios. In the first, we show the flexibility of the sparse sampling framework, by using variational inference to integrate Gaussian mixture models as appearance models. In the second scenario, we propose a study of how to incorporate depth measurements in multi-view segmentation. We present a quantitative evaluation, showing that typical color-based segmentation robustness issues due to color-space ambiguity between foreground and background, can be at least partially mitigated by using depth, and that multi-view color depth segmentation also improves over monocular color depth segmentation strategies.The various tests also showed the limitations of the proposed 3D sparse sampling approach which was the motivation to propose a new method based on a richer description of image regions using superpixels. This model, that expresses more subtle relationships of the problem trough a graph construction linking superpixels and 3D samples, is one of the contributions of this work. In this new framework, time related information is also integrated. With static views, results compete with state of the art methods but they are achieved with significantly fewer viewpoints. Results on videos demonstrate the benefit of segmentation propagation through geometric and temporal cues.Finally, the last part of the thesis explores the possibilities of tracking in uncalibrated multi-view scenarios. A summary of existing methods in this field is presented, in both mono-camera and multi-camera scenarios. We investigate the potential of using self-similarity matrices to describe and compare motion in the context of multi-view tracking.L’utilisation de systèmes multi-caméras est de plus en plus populaire et il y a un intérêt croissant à résoudre les problèmes de vision par ordinateur dans ce contexte particulier. L’objectif étant de ne pas se limiter à l’application des méthodes monoculaires mais de proposer de nouvelles approches intrinsèquement orientées vers les systèmes multi-caméras. Le travail de cette thèse a pour objectif une meilleure compréhension du problème de segmentation multi-vues, pour proposer une nouvelle approche qui tire meilleur parti de la redondance d’information inhérente à l’utilisation de plusieurs points de vue.La segmentation multi-vues est l’identification de l’objet observé simultanément dans plusieurs caméras et sa séparation de l’arrière-plan. Les approches monoculaires classiques raisonnent sur chaque image de manière indépendante et ne bénéficient pas de la présence de plusieurs points de vue. Une question clé de la segmentation multi-vues réside dans la propagation d’information sur la segmentation entres les images tout en minimisant la complexité et le coût en calcul. Dans ce travail, nous investiguons en premier lieu l’utilisation d’un ensemble épars d’échantillons de points 3D. L’algorithme proposé classe chaque point comme "vide" s’il se projette sur une région du fond et "occupé" s’il se projette sur une région avant-plan dans toutes les vues. Un modèle probabiliste est proposé pour estimer les modèles de couleur de l’avant-plan et de l’arrière-plan, que nous testons sur plusieurs jeux de données de l’état de l’art.Deux extensions du modèle sont proposées. Dans la première, nous montrons la flexibilité de la méthode proposée en intégrant les mélanges de Gaussiennes comme modèles d’apparence. Cette intégration est possible grâce à l’utilisation de l’inférence variationelle. Dans la seconde, nous montrons que le modèle bayésien basé sur les échantillons 3D peut aussi être utilisé si des mesures de profondeur sont présentes. Les résultats de l’évaluation montrent que les problèmes de robustesse, typiquement causés par les ambigüités couleurs entre fond et forme, peuvent être au moins partiellement résolus en utilisant cette information de profondeur. A noter aussi qu’une approche multi-vues reste meilleure qu’une méthode monoculaire utilisant l’information de profondeur.Les différents tests montrent aussi les limitations de la méthode basée sur un échantillonnage éparse. Cela a montré la nécessité de proposer un modèle reposant sur une description plus riche de l’apparence dans les images, en particulier en utilisant les superpixels. L’une des contributions de ce travail est une meilleure modélisation des contraintes grâce à un schéma par coupure de graphes liant les régions d’images aux échantillons 3D. Dans le cas statique, les résultats obtenus rivalisent avec ceux de l’état de l’art mais sont obtenus avec beaucoup moins de points de vue. Les résultats dans le cas dynamique montrent l’intérêt de la propagation de l’information de segmentation à travers la géométrie et le mouvement.Enfin, la dernière partie de cette thèse explore la possibilité d’améliorer le suivi dans les systèmes multi-caméras non calibrés. Un état de l’art sur le suivi monoculaire et multi-caméras est présenté et nous explorons l’utilisation des matrices d’autosimilarité comme moyen de décrire le mouvement et de le comparer entre plusieurs caméras