2 research outputs found
Struktúrális információ az érzékelők mérési terében = Structural information in the space of sensor networks
A projekt során kĂĽlönbözĹ‘ körĂĽlmĂ©nyek között vĂ©geztĂĽnk mĂ©rĂ©seket, Ă©s ennek megfelelĹ‘ feladatokban Ă©rtĂĽnk el eredmĂ©nyeket: 1. Több kamera használatával: mozgáskövetĂ©s, mozgásjelleg/viselkedĂ©s felismerĂ©s, helyszĂn geometria viszonyainak bemĂ©rĂ©se. 2. MĂ©lysĂ©gi detekciĂłra alkalmas eszközökkel: LIDAR Ă©s TOF kamera kĂ©peibĹ‘l illetve pontfelhĹ‘jĂ©bĹ‘l detektáltunk mozgásjellemzĹ‘ket, 3D alakzatokat. 3. LĂ©gi Ă©s orvosi kĂ©peken illetve kĂ©psorozatokon: változások követĂ©se, jellegzetes struktĂşrák detektálása. A projekt során jelentĹ‘s elmĂ©leti eredmĂ©nyek szĂĽletettek: 1. A vizsgált helyszĂn jellemzĹ‘ struktĂşráinak illetve változásainak felismerĂ©sĂ©re, 2. Ăšj kĂ©pleĂrĂłk kidolgozása gyenge felbontásĂş alakzatok felismerĂ©sĂ©hez Ă©s finom felbontásĂş aktĂv kontĂşr előállĂtására, 3. VideĂłkĂ©p sorozatokon a szokatlan mozgássorok illetve speciális viselkedĂ©sek felismerĂ©se, követĂ©se, 4. MĂ©lysĂ©gi informáciĂłk szűrĂ©se 2D (gráfok, dekonvolĂşciĂł), illetve 3D (LIDAR, TOF) adatokon. Az eredmĂ©nyeket a tĂ©ma szakkonferenciáin, illetve a szakma jelentĹ‘s folyĂłirataiban publikáltuk. | We have built up several measurement environments for the project’ purposes, and we have achieved results evaluating the experiments in these setups: 1. Multicamera system: motion tracking, recognition of the behavior of the objects, the structural geometry given by the scene events, 2. Devices for depth measurements: images and point-clouds of LIDAR and Time-of-Flight cameras for motion tracking and shape detection, 3. Aerial and medical images/image series: detection of changes, finding featuring structures. During the project the following important theoretical results have been published in the most important conferences and journals: 1. Change detection and structure recognition of the given scene, 2. Improved feature point set for low resolution pattern recognition and enhanced active contour detection, 3. Unusual motion flow pattern and crowd behavior detection on video sequences, 4. Depth information filters in 2D (graphs, deconvolution) and in 3D (LIDAR, TOF)
Video event detection and visual data pro cessing for multimedia applications
Cette thèse (i) décrit une procédure automatique pour estimer la condition d'arrêt des méthodes de déconvolution itératives basées sur un critère d'orthogonalité du signal estimé et de son gradient à une itération donnée; (ii) présente une méthode qui décompose l'image en une partie géométrique (ou "cartoon") et une partie "texture" en utilisation une estimation de paramètre et une condition d'arrêt basées sur la diffusion anisotropique avec orthogonalité, en utilisant le fait que ces deux composantes. "cartoon" et "texture", doivent être indépendantes; (iii) décrit une méthode pour extraire d'une séquence vidéo obtenue à partir de caméra portable les objets de premier plan en mouvement. Cette méthode augmente la compensation de mouvement de la caméra par une nouvelle estimation basée noyau de la fonction de probabilité de densité des pixels d'arrière-plan. Les méthodes présentées ont été testées et comparées aux algorithmes de l'état de l'art.This dissertation (i) describes an automatic procedure for estimating the stopping condition of non-regularized iterative deconvolution methods based on an orthogonality criterion of the estimated signal and its gradient at a given iteration; (ii) presents a decomposition method that splits the image into geometric (or cartoon) and texture parts using anisotropic diffusion with orthogonality based parameter estimation and stopping condition, utilizing the theory that the cartoon and the texture components of an image should be independent of each other; (iii) describes a method for moving foreground object extraction in sequences taken by wearable camera, with strong motion, where the camera motion compensated frame differencing is enhanced with a novel kernel-based estimation of the probability density function of the background pixels. The presented methods have been thoroughly tested and compared to other similar algorithms from the state-of-the-art.BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF