10 research outputs found

    Robust Visual Correspondence: Theory and Applications

    Get PDF
    Visual correspondence represents one of the most important tasks in computer vision. Given two sets of pixels (i.e. two images), it aims at finding corresponding pixel pairs belonging to the two sets (homologous pixels). As a matter of fact, visual correspondence is commonly employed in fields such as stereo correspondence, change detection, image registration, motion estimation, pattern matching, image vector quantization. The visual correspondence task can be extremely challenging in presence of disturbance factors which typically affect images. A common source of disturbances can be related to photometric distortions between the images under comparison. These can be ascribed to the camera sensors employed in the image acquisition process (due to dynamic variations of camera parameters such as auto-exposure and auto-gain, or to the use of different cameras), or can be induced by external factors such as changes of the amount of light emitted by the sources or viewing of non-lambertian surfaces at different angles. All of these factors tend to produce brightness changes in corresponding pixels of the two images that can not be neglected in real applications implying visual correspondence between images acquired from different spatial points (e.g. stereo vision) and/or different time instants (e.g. pattern matching, change detection). In addition to photometric distortions, differences between corresponding pixels can also be due to the noise introduced by camera sensors. Finally, the acquisition of images from different spatial points or different time instants can also induce occlusions. Evaluation assessments have also been proposed which compared visual correspondence approaches for tasks such as stereo correspondence (Chambon & Crouzil, 2003), image registration (Zitova & Flusser, 2003) and image motion (Giachetti, 2000)

    Hardware Architectures for Image Processing Acceleration

    Get PDF

    Fractal analysis of fingerprints

    Get PDF
    Current methods for comparing fingerprints have weaknesses that have opened them to criticism. Current methods concentrate on the comparison of minutia in the print either manually or with the assistance of a computer algorithm. This causes these methods to depend highly on the presence of minutia and their relationship to one another. Absence or rotations of minutia can prevent current methods form making accurate comparisons. The goal of this process is to develop a new method for analyzing fingerprints that addresses many of the concerns with current methods.;The developed process uses an iterated function sequence (IFS) to convert the image of a fingerprint into a fractal pattern. The input for the IFS is constructed by a random walk through the image. Once a fingerprint is converted into a fractal pattern, the fractals can be used to make comparisons. Fractals are well defined mathematical objects that make them far easier to compare than fingerprints themselves. This process addresses many of the issues with current methods. This method is global in nature and thus it is not dependent on a set number of minutiae. Moreover, the rules for the random walk are constructed so as to make the fractal produced invariant of orientation of the print.;This method offers a new fast way to compare images. This method can be used to increase confidence, both in court and public opinion, in the use of fingerprints as identification. It can offer both an independent and/or supplemental method to the current ones used

    FINGERPRINT ENHANCEMENT USING FUZZY LOGIC AND DEEP NEURAL NETWORKS

    Get PDF
    Department of Computer Science and EngineeringFingerprint recognition analysis is one of the most leading preferred prodigious biometric advancement which has drawn generous consideration in biometrics. In this work, fingerprint Intensification is performed which is defined by Fuzzy logic technique and recognize the matching image with its unique characteristics extracted and classify the features extracted from a fuzzy enhanced image along with three major types of Neural Networks which are Feed Forward Artificial Neural Network, Neural Network, Recurrent Neural Network in order to classify the unique features extracted from a fingerprint image. This work efficiently expresses the results with Fuzzy logic enhancement and Neural Networks classifiers. Its principle goal is to improve the image using Fuzzy and extricate the spurious minutiae detected and classify the different features generated using GLCM and DWT. This work displays a framework of unique finger impression classification based on particular characteristics for extricating different features and three types of Neural Network for classification. Fuzzy technique is used for the fuzzy based image enhancement to urge the clear see of the unique finger impression. Fingerprint Image Intensification is the procedure to enhance the distorted images to encourage the recognizable proof. The motivation behind the work is to enrich the quality of the distorted condition image generated from any fingerprint sensor, as Images can be corrupted due to various conditions and one of the principal issues is the resolution of the fingerprint sensor generating noisy images. High-quality pictures are vital for the exact coordinating of unique finger impression pictures. But unique mark pictures are seldom of idealizing refinement. As it may be corrupted or debased due to varieties of the skin, impression state and condition. In this way, unique finger impression images must be improved before utilized. The idea behind this work fingerprint image intensification process is to improve the quality of distorted and noisy fingerprint images generated from a low-cost fingerprint sensor. Execution of current ???ngerprint acknowledgment frameworks is vigorously in???uenced by the precision of their characteristic???s extraction evaluation. These days, there are more ways to deal with ???ngerprint analysis with worthy outcomes. Issues begin to emerge in low-quality conditions where the dominant part of the conventional strategies dependent on examining the surface of ???ngerprint can't handle this issue so e???ectively as Neural Networks. Fuzzy logic technique is implemented first to remediate the distorted picture and enhance it with the implementation of GLCM and DWT2 algorithm features of an image is extracted, post to which three types of Neural Network Classification is performed to analyze the accuracy of the image generated from the extracted feature parameters and match the test and trained result with the implementation of Neural Networks and classify the outcome results. The three Neural Network used is Artificial Neural Network (ANN), Neural Network (NN), Recurrent Neural Network (RNN). This algorithm works efficiently to identify the fingerprint matching from the predefined trained images from the fuzzy enhanced image generated. Experiments are performed (in MATLAB 2019 student version) to make sure the extraction process should not get the false minutiae and preserve the true extracted features Fuzzy based Image Enhancement method makes sure the feature traits of the image is intensified. Better improvement proves the quality improvement further incrementing the highest accuracy determined in the classification further. This work can be used in a wide area of applications in biometrics as it is a combined work of distorted fingerprints enhancement, false feature removal, true feature extraction, matching of the images for identification purpose and classification using Neural Networks. Experiments show results which are quite promising and gives a direction of the subsequent further analysis in future work.clos

    Occlusion handling in correlation-based matching

    Get PDF
    In binocular stereovision, the accuracy of the 3D reconstruction depends on the accuracy of matching results. Consequently, matching is an important task. Our first goal is to present a state of the art of matching methods. We define a generic and complete algorithm based on essential components to describe most of the matching methods. Occlusions are one of the most important difficulties and we also present a state of the art of methods dealing with occlusions. Finally, we propose matching methods using two correlation measures to take into account occlusions. The results highlight the best method that merges two disparity maps obtained with two different measures.En stéréovision binoculaire, la mise en correspondance est une étape cruciale pour réaliser la reconstruction 3D de la scène. De très nombreuses publications traitent ce problème. Ainsi, le premier objectif est de proposer un état de l'art des méthodes de mise en correspondance. Nous synthétisons cette étude en présentant un algorithme générique complet faisant intervenir des éléments constituants permettant de décrire les différentes étapes de la recherche de correspondances. Une des plus grandes difficultés, au cours de l'appariement, provient des occultations. C'est pourquoi le second objectif est de présenter un état de l'art des méthodes qui prennent en compte cette difficulté. Enfin, le dernier objectif est de présenter de nouvelles méthodes hybrides, dans le cadre des méthodes locales à base de corrélation. Nous nous appuyons sur l'utilisation de deux mesures de corrélation permettant de mieux prendre en compte le problème des occultations. Les résultats mettent en évidence la meilleure méthode qui consiste à fusionner deux cartes de disparités obtenues avec des mesures différentes

    Correlation measures for color images

    Get PDF
    Matching is a difficult task in stereoscopic reconstruction. The present paper deals with dense correlation-based matching. Few papers mention the use of color for dense correlation-based matching but those have shown the increase of efficiency with color images. Consequently, the purpose of this paper is to take into account color in dense correlation-based matching. The main novelty of our work is to set up a protocol that generalizes dense correlation-based matching to color by choosing a color system and by generalizing the correlation measures to color. Nine color systems have been evaluated and three different methods have been compared. The evaluation and comparison protocol we have proposed highlights the behavior of the methods with each color system. The results show what to do in order to take into account color and how using color can improve the efficiency.Une des manières de réaliser la mise en correspondance, tâche cruciale dans tout algorithme de reconstruction stéréoscopique, est d'utiliser une mesure de corrélation. Habituellement, seules des images de niveaux de gris sont prises en compte et peu de travaux utilisent la couleur pour la mise en correspondance dense par corrélation, mais ceux-ci ont mis en évidence un gain de performance. Cet article s'inscrit dans la continuité de ces travaux. Sa contribution principale est l'établissement d'une stratégie de généralisation à la couleur de la mise en correspondance par corrélation. Cette généralisation passe par le choix d'un système de représentation de la couleur et par l'adaptation des mesures de corrélation à la couleur. Neuf systèmes différents, parmi les plus utilisés, sont testés et trois méthodes de généralisation différentes sont proposées. Nous avons mis en place un protocole d'évaluation et de comparaison pour étudier le comportement de chacune de ces méthodes, suivant chaque système de couleur. Les résultats obtenus mettent en évidence les choix à faire effectuer pour prendre en compte les images couleur ainsi que le gain de performance obtenu par rapport à l'utilisation des images en niveaux de gris

    Bewertung der Strukturintensität als Größe zur Bestimmung des Energietransportes in vibroakustischen Systemen

    Get PDF
    Ziel dieser Arbeit ist es, die Strukturintensität als Größe zur Bestimmung des Energietransportes in vibroakustischen Systemen zu bewerten. Der Schwerpunkt liegt dabei auf der Ableitung von Regeln zur notwendigen Diskretisierung und zum Detailgrad der Modellierung für das betrachtete System, um eine Aussage über den Leistungsfluss im Modell treffen zu können. Ferner beziehen sich die Untersuchungen auf die numerische und experimentelle Bestimmung der Strukturintensität für eine frei schwingende Platte. Dazu wird zunächst ein numerisches Simulationsmodell aufgebaut und validiert. Im Folgenden werden Konvergenzstudien bezüglich der minimal notwendigen Diskretisierungsdichte durchgeführt. Die Untersuchungen ergeben, dass die Struktur mit mindestens 30 Punkten pro Wellenlänge diskretisiert werden muss, damit die berechnete Strukturintensität konvergent ist. Zudem wird der Leistungsfluss zwischen zwei Subsystemen über eine Grenze auf Basis der berechneten Strukturintensitätsdaten betrachtet. Untersuchungen der lokalen Diskretisierungsdichte zeigen, dass bei der Berücksichtigung von 80% der berechneten Elemente eine maximale Abweichung von 15% der ermittelten Leistung vorliegt. Zum Vergleich für die numerisch ermittelten Ergebnisse wird der Versuchsaufbau experimentell nachgebildet, um auf Basis der gemessenen Größen die Strukturintensität zu bestimmen. Die Untersuchungen ergeben, dass sich trotz veränderter Experimentkonfiguration keine Strukturintensität mittels experimenteller Messdaten für eine freischwingenden Platte bestimmen lässt. Die Grunde können in der Arbeit nicht abschließend geklärt werden und sind weiterhin Bestandteil für zukünftige Forschungsarbeiten

    Analyse de la reconstruction 3D par stéréo multivue dans l'optique des défis de l'appariement

    Get PDF
    Le sujet de la reconstruction 3D par stéréo multivue a été tant étudié, tellement de méthodes ont été développées qu'il n'est pas toujours facile de s'y retrouver. Qu'est-ce qui fait qu'un algorithme est plus efficace qu'un autre? Pour répondre à cette question, il faut être en mesure de reconnaître les caractéristiques fondamentalement intéressantes d'un algorithme. Dans le but d'acquérir ce savoir, nous allons décortiquer les différentes étapes de la reconstruction d'un objet, en partant par la base de la stéréo: l'appariement. Trouver des positions dans différentes images qui correspondent au même point de la surface comprend plusieurs défis: la visibilité (quel point est vu dans quelle image?), l'ambiguïté (quel ensemble de pixels correspond à un point de la surface?), la variation d'apparence angulaire (la couleur d'un point de la surface peut changer selon le point de vue) et la discrétisation de l'apparence (une image est un échantillonnage de l'apparence d'une partie de la surface). Apparier implique de pouvoir évaluer que la variation de couleur angulaire d'un point est cohérente avec le modèle de réflectance de l'objet. Pour évaluer la photo-cohérence, un critère de comparaison, des contraintes sur la surface et une façon d'emmagasiner les données sont nécessaires. Compte tenu des problèmes d'appariement, la photo-cohérence n'est pas suffisante pour trouver la surface. Pour trouver les meilleurs appariements, les algorithmes de reconstruction intègrent donc les façons d'évaluer la photo-cohérence aux autres hypothèses sur la surface (ex: lisse, cohérente aux silhouettes)

    Contribución al reconocimiento de huellas dactilares mediante técnicas de correlación y arquitecturas hardware para el aumento de prestaciones

    Get PDF
    Las huellas dactilares son un identificador biométrico ampliamente utilizado. Su uso se extiende desde aplicaciones policiales y forenses hasta aplicaciones civiles muy comunes, como el control de accesos. Con la aparición de los primeros sistemas automáticos de reconocimiento de huellas (AFIS, “Automatic Fingerprint Identification System”) se comenzó el desarrollo y utilización de algoritmos de comparación de huellas dactilares basados en minucias, que son puntos singulares dentro de la huella. Estos métodos se asemejan a la comparación visual realizada por un experto, identificando la posición de los puntos singulares para su posterior comparación. Los métodos de comparación basados en minucias proporcionan una respuesta precisa pero presentan numerosos inconvenientes. En primer lugar, las técnicas de comparación basadas en minucias requieren un fuerte preprocesado de las imágenes que suelen introducir artefactos en las imágenes a comparar. En segundo lugar, estas técnicas solo toman una parte muy concreta de la información contenida en la huella, sesgando con ello en gran medida la comparación. Actualmente los sensores de huellas dactilares son capaces de proporcionar imágenes de alta resolución y con alta calidad, utilizar únicamente las minucias para la comparación es desaprovechar el resto de la valiosa información contenida en la huella. Los algoritmos basados en técnicas de correlación se presentan como candidatos para paliar los dos inconvenientes anteriormente mencionados. Estas técnicas utilizan el cálculo de la correlación cruzada como medida de similitud de las imágenes. Por lo tanto se compara toda la información contenida en la huella y además, como no se requiere la extracción de características, se evita la compleja etapa de preprocesado requerida por los métodos basados en minucias. A pesar de haber demostrado recientemente que con las técnicas basadas en correlación se pueden obtener resultados precisos [FVC2002], [FVC2004], estas técnicas siguen siendo minoritariamente estudiadas y utilizadas. La principal desventaja que presentan es su alta carga computacional, requiriendo equipos de altas prestaciones, coste y tamaño. Esta tesis doctoral presenta algoritmos para la comparación de huellas dactilares mediante técnicas de correlación así como arquitecturas hardware eficientes para solventar los problemas de rendimiento que presentan estas técnicas. Se han propuesto dos algoritmos de comparación de huellas dactilares mediante técnicas de correlación que son aportación original de esta tesis. Los algoritmos presentan dos soluciones diferenciadas según la resolución de las imágenes a comparar. Los métodos de alineamiento propuestos para cada uno de los algoritmos también utilizan técnicas novedosas y son por tanto aportación original de esta tesis. El algoritmo de comparación de imágenes de baja resolución realiza una etapa de alineamiento novedosa basada en la correlación del campo de orientación de las huellas. A partir del desplazamiento y la rotación calculados se seleccionan las zonas de las huellas a comparar teniendo en cuenta el solape que existe entre las huellas así como la calidad de las zonas elegidas. Una vez determinadas las zonas se utiliza la correlación cruzada como medida de similitud de las zonas. El algoritmo de comparación para imágenes de alta resolución selecciona zonas cercanas al núcleo para efectuar la comparación. La selección del núcleo se efectúa mediante una técnica novedosa que utiliza la transformada wavelet para determinar la posición del núcleo. La detección del núcleo se realiza sobre la imagen directamente sin necesidad de aplicar ningún preprocesado previo. Una vez seleccionadas las zonas que contienen al núcleo, se realiza el cálculo de la correlación cruzada como medida de similitud de las imágenes. Los resultados experimentales para ambos algoritmos determinan que ambos métodos son precisos en la comparación pero su rendimiento en implementaciones software es bajo. Esto es debido a que el rendimiento en ambos algoritmos se ve afectado por la elevada carga computacional que acarrea el cálculo de la correlación cruzada. En esta tesis también se han propuesto arquitecturas hardware para la aceleración del cálculo de la correlación cruzada. En concreto, se han propuesto dos arquitecturas hardware, una para el cálculo de la correlación en el dominio espacial y otra para el cálculo de la correlación en el dominio espectral. Así como una arquitectura para realizar por hardware la normalización y poder así obtener una correlación normalizada. Todas las arquitecturas propuestas son aportación original de esta tesis. La arquitectura espacial consta de una matriz sistólica de DSP slices que realizan MACs (“Multiplication ACcumulation”). En esta arquitectura cada DSP slice realiza una MAC y pasa el resultado al siguiente DSP slice de su misma fila. Por lo tanto, en cada fila de la matriz se calcula la correlación cruzada de una fila de ambas imágenes. Después de un retardo inicial, los resultados se proporcionan cada ciclo de reloj. La arquitectura espectral se basa en la aplicación del teorema de la correlación y en la utilización de la transformada rápida de Fourier (FFT). Se han utilizado módulos de cálculo de la FFT, que se han denominado FFT slices. En la arquitectura propuesta, cada FFT slice realiza la FFT de una fila de ambas imágenes. La arquitectura gestiona los FFT slices, así como memorias intermedias, para realizar el máximo número posible de FFTs en paralelo. Para la normalización se presentan arquitecturas recursivas que aprovechan el flujo de datos de las arquitecturas que calculan la correlación. Con esta aproximación es posible combinar ambos circuitos para integrarlos en un solo chip. Además de esto, al compartir el flujo de datos los resultados se generan a la vez, sin disminuir el rendimiento del sistema. Experimentalmente se ha comprobado la aceleración conseguida con las arquitecturas propuestas mediante implementaciones de las arquitecturas en una FPGA (“Field Programmable Gate Array”) de la familia Virtex 4 de Xilinx [Xil_V4]. Los resultados experimentales demuestran que con las arquitecturas propuestas se pueden conseguir aceleraciones de hasta dos órdenes de magnitud respecto a implementaciones en C en un PC de gama alta. También se han propuesto soluciones a nivel de sistema para la comparación de huellas dactilares mediante técnicas de correlación. Estas soluciones presentan la integración de las arquitecturas hardware propuestas en un SoPC (“System On Pogrammable Chip”). La arquitectura básica del SoPC propuesto consta de un microprocesador empotrado junto con un coprocesador hardware que realiza las tareas de complejidad elevada. Con esta arquitectura se busca una mejora en el rendimiento del sistema, aliviando la carga computacional del microprocesador empotrado. Se proponen dos arquitecturas para el coprocesador hardware del SoPC que son aportación original de esta tesis. La arquitectura estática se basa en la arquitectura espacial propuesta, pero utilizando una única fila de DSP slices para realizar los cálculos. En esta arquitectura, el coprocesador se encarga de realizar las tareas de mayor carga computacional y el microprocesador el resto de tareas necesarias para la comparación, incluyendo el envío de datos al coprocesador y la recomposición de resultados. La arquitectura dinámica se compone de un coprocesador reconfigurable de grano grueso que puede cambiar en tiempo de ejecución tanto la operación a realizar como el tamaño de las imágenes empleadas, implicando un redimensionamiento de la matriz de DSP slices del coprocesador. La reconfiguración la realiza directamente el microprocesador empotrado, sin necesidad de utilizar los mecanismos internos de reconfiguración de la FPGA. Este coprocesador presenta una solución versátil a la par que eficiente. La pérdida de posibilidades frente a una reconfiguración de grano fino se ve compensada por una disminución drástica del tiempo de reconfiguración que con la arquitectura propuesta puede realizarse con tan solo cuatro transacciones de 32 bits. El sistema se ha prototipado para una FPGA Virtex 5 de Xilinx [Xil_V5] utilizando como microprocesador empotrado Microblaze [Xil_mblaze]. Los resultados experimentales obtenidos muestran que el SoPC diseñado es altamente eficiente para diversas operaciones comunes en el campo del procesado de imágenes (CC, S, SS y transformada wavelet) superando en rendimiento a implementaciones software en un PC de altas prestaciones. En el SoPC propuesto también se ha implementado el algoritmo para imágenes de alta resolución propuesto consiguiendo el mismo rendimiento que un PC de altas prestaciones. Con esta tesis doctoral se ha estudiado la comparación de huellas dactilares mediante técnicas de correlación obteniendo resultados precisos con algoritmos novedosos de comparación. Se ha demostrado que las técnicas de correlación son unas técnicas prometedoras en el ámbito de la comparación de huellas dactilares, por la precisión obtenida así como por su capacidad de comparar la totalidad de la información contenida en la huella. También se han solventado los problemas de rendimiento que presentan estas técnicas mediante arquitecturas hardware específicas que proporcionan rendimientos elevados. .Las arquitecturas propuestas hacen posible cálculos de correlación en tiempo real y en sistemas de bajo coste y tamaño. El SoPC con coprocesador dinámico propuesto presenta una solución muy versátil, ya que es capaz de modificar en tiempo de ejecución la tarea a realizar por el coprocesador, el tamaño de las imágenes y de la matriz de DSP slices, realizando el cálculo de forma eficiente para un conjunto de datos de gran tamaño

    Méthodes de rendu à base de vidéos et applications à la réalité Virtuelle

    Get PDF
    Given a set images of the same scene, the goal of video-based rendering methods is to compute new views of this scene from new viewpoints. The user of this system controls the virtual camera's movement through the scene. Nevertheless, the virtual images are computed from static cameras. A first approach is based on a reconstruction of the scene and can provide accurate models but often requires lengthy computation before visualization. Other methods try to achieve real-time rendering. Our main contribution to video-base rendering concerns the plane sweep method which belongs to the latter family. The plane sweep method divides space in parallel planes. Each point of each plane is processed independently in order to know if it lies on the surface of an object of the scene. These informations are used to compute a new view of the scene from a new viewpoint. This method is well suited to an implementation using graphic hardware and thus to reach realtime rendering. Our main contribution to this method concerns the way to consider whether a point of a plane lies on the surface of an object of the scene. We first propose a new scoring method increasing the visual quality of the new images. Compared with previous approaches, this method implies fewer constraints on the position of the virtaul camera, i.e. this camera does not need to lie between the input camera's area. We also present an adaptation of the plane sweep algorithm that handles partial occlusions. According to video-based rendering practical applications in virtual reality, we propose an improvement of the plane sweep method dealing with stereoscopic images computation that provides visualization of the virtual scene in relief. Our enhancement provides the second view with only low additional computation time whereas most of the others techniques require to render the scene twice. This improvement is based on a sharing of the informations common to the two stereoscopic views. Finally, we propose a method that removes pseudoscopic movements in a virtual reality application. These pseudoscopic movements appear when the observer moves in front of the stereoscopic screen. Then the scene roportions seem to be distorted and the observer sees the objects of the scene moving in an anormal way. The method we propose is available either on a classical stereoscopic rendering method or on the Plane Seep algorithm. Every method we propose widely uses graphic harware through to shader programs and provides real-time rendering. These methods only require a standard computer, a video acquisition device and a powerful enough graphic card. There exists a lot of practicalapplications of the plane sweep method, especially in fields like virtual reality, video games, 3d television or security.Etant donné un ensemble de caméras filmant une même scène, le rendu à base de vidéos consiste à générer de nouvelles images de cette scène à partir de nouveaux points de vue. L'utilisateur a ainsi l'impression de pouvoir déplacer une caméra virtuelle dans la scène alors qu'en réalité, toutes les caméras sont fixes. Certaines méthodes de rendu à base de vidéos coûteuses en temps de calcul se basent sur une reconstruction 3d de la scène et produisent des images de très bonne qualité. D'autres méthodes s'orientent plutôt vers le rendu temps réel. C'est dans cette dernière catégorie que s'inscrit la méthode de Plane Sweep sur laquelle porte la majeure partie de nos travaux. Le principe de la méthode des Plane Sweep consiste à discrétiser la scène en plans parallèles et à traiter séparément chaque point de ces plans afin de déterminer s'ils se trouvent ou non sur la surface d'un objet de la scène. Les résultats obtenus permettent de générer une nouvelle image de la scène à partir d'un nouveau point de vue. Cette méthode est particulièrement bien adaptée à une utilisation optimale des ressources de la carte graphique ce qui explique qu'elle permette d'effectuer du rendu en temps réel. Notre principale contribution à cette méthode concerne la façon d'estimer si un point d'un plan représente la surface d'un objet. Nous proposons d'une part un nouveau mode de calcul permettant d'améliorer le résultat visuel tout en rendant la navigation de la caméra virtuelle plus souple. D'autre part, nous présentons une adaptation de la méthode des Plane Sweep permettant de gérer les occlusions partielles. Compte tenu des applications du rendu à base de vidéos en réalité virtuelle, nous proposons une amélioration des Plane Sweep appliquée à la réalité virtuelle avec notamment la création de paires d'images stéréoscopiques permettant de visualiser en relief la scène reconstruite. Notre amélioration consiste à calculer la seconde vue à moindre coût alors qu'une majorité des méthodes concurrentes sont contraintes d'effectuer deux rendus indépendants. Cette amélioration est basée sur un partage des données communes aux deux vues stéréoscopiques. Enfin, dans le cadre de l'utilisation des Plane Sweep en réalité virtuelle, nous présentons une méthode permettant de supprimer les mouvements pseudoscopiques. Ces mouvements pseudoscopiques apparaissent lorsque l'observateur se déplace devant une image stéréoscopique, il ressent alors une distorsion des proportions de la scène virtuelle et voit les objets se déplacer de façon anormale. La méthode de correction que nous proposons est applicable d'une part à des méthodes classiques de rendu d'images de synthèse et d'autre part à la méthode des Plane Sweep. Toutes les méthodes que nous présentons utilisent largement les possibilités du processeur de la carte graphique à l'aide des shader programs et génèrent toutes des images en temps réel. Seuls un ordinateur grand public, un dispositif d'acquisition vidéo et une bonne carte graphique sont suffisants pour les faire fonctionner. Les applications des Plane Sweep sont nombreuses, en particulier dans les domaines de la réalité virtuelle, du jeu vidéo, de la télévision 3d ou de la sécurité
    corecore