16 research outputs found

    Les squelettes : structures d'interaction directe et intuitive avec des formes 3D

    Get PDF
    The interactions in shape creation graphic applications are far from natural. The user tends to avoid as much as possible such applications and prefer to sketch or model his/her shape.To bridge this widening gap between computer and the general public, we focus on skeletons. They are intuitive shape representation models that we propose to use as direct and intuitive interaction structures.All skeletons suffer from very low quality as shape representation models, concerning the geometry of the shape they capture, the quantity of skeletal noise they contain or the lack of useful organization of their elements. Moreover, some functionalities that must be granted to skeletons are only partially solved. Those solutions make use of additional data computed thanks to the shape during the skeletonization. Thus, when the skeleton is modified by an interaction, we cannot update those data to make use of such functionalities.Thanks to a practical observation of skeletons, we built a set of algorithmic solutions to those problems.We make an optimal use of skeleton data to visualize the shape described by a skeleton, to remove skeletal noise and to structure skeleton elements. With our methods, we build the meso-skeleton, a hierarchical structure that captures and controls all characteristic parts of a shape.The meso-skeleton is adapted to be used as a direct and intuitive interaction structure, which allows us to bridge the gap aforementioned. Also, our work can lead to further researches to enhance skeletonization techniques and thus produce skeletons that are good quality shape representation models.Dans les applications graphiques, les interactions avec les formes sont peu naturelles. L'utilisateur repousse autant que possible l'usage de ces applications, préférant dessiner ou sculpter une forme. Pour combler ce fossé qui se creuse entre l'informatique et le grand public, nous nous tournons vers les squelettes. Ce sont des modèles de représentation des formes intuitifs que nous proposons d'utiliser comme structure d'interaction directe et intuitive.Tous les squelettes souffrent d'un problème de qualité, que ce soit au niveau de la géométrie qu'ils capturent, de leurs quantité de bruit ou encore de l'absence d'organisation utile de leurs éléments. De plus, certaines fonctionnalités nécessaires des squelettes ne sont que partiellement résolues, et ceci grâce à des données additionnelles calculées à partir de la forme lors de la squelettisation. Ainsi, lorsque le squelette est modifié par une interaction, nous sommes dans l'incapacité de mettre à jour ces données et d'utiliser ces fonctionnalités.Nous avons construit un ensemble de solutions algorithmiques à ces problèmes. Nous faisons un usage optimal des données contenues dans le squelette pour visualiser la forme qu'il décrit, supprimer son bruit et structurer ses éléments. Nous construisons un squelette hiérarchique qui capture et contrôle toutes les zones caractéristiques d'une forme.Ce squelette est adapté pour une interaction directe et intuitive, ce qui permet de combler le fossé dont nous faisions mention. Nos travaux permettent également d'améliorer les méthodes de squelettisation et produire des squelettes qui sont déjà de bonne qualité

    Analyse mésoscopique par éléments finis de la déformation de renforts fibreux 2D et 3D à partir de microtomographies X

    Get PDF
    The simulation at meso-scale of textile composite reinforcement deformation provides important information. In particular, it gives the direction and density of the fibres that condition the permeability of the textile reinforcement and the mechanical properties of the final composite. These meso FE analyses are highly dependent on the quality of the initial geometry of the model. Some software have been developed to describe composite reinforcement geometries. The obtained geometries imply simplification that can disrupt the reinforcement deformation computation. The present work presents a direct method using computed microtomography to determine finite element models based on the real geometry of the textile reinforcement. The FE model is obtained for any specificity or variability of the textile reinforcement, more or less complex. The yarns interpenetration problems are avoided. These models are used with two constitutive laws : a hypoelastic law and a hyperelastic one. An analysis of their properties is presented and their implementation in the software ABAQUS is detailed. Finally, an identification method is presented and the results of forming simulations are compared to experimental tests, which shows a good fit between the both.La simulation à l'échelle mésoscopique de la déformation des renforts composites fournit des informations importantes. En particulier, elle donne la direction et la densité de fibres qui conditionne la perméabilité du renfort textile et les propriétés mécaniques du composite final. Ces analyses mésoscopiques par éléments finis dépendent fortement de la qualité de la géométrie initiale du modèle. Certains logiciels ont été développés pour décrire ces géométries de renforts composites. Mais, les géométries obtenues impliquent une simplification (notamment dans la section transversale de mèche) qui peut perturber le calcul de déformation du renfort. Le présent travail présente une méthode directe utilisant la microtomographie à rayon X pour générer des modèles éléments finis, basée sur la géométrie réelle de l'armure textile. Le modèle EF peut être obtenu pour tout type de renfort, plus ou moins complexe. Les problèmes d’interpénétrations de mèches sont évités. Ces modèles sont utilisés avec deux lois de comportement : une loi hypoélastique et une loi hyperélastique. Les propriétés de chacune d'entre elles, ainsi que les grandeurs caractéristiques nécessaires à leur implémentation dans le logiciel ABAQUS sont développées. Enfin, une identification des paramètres matériau à l'aide d'une méthode inverse est proposée. Les résultats obtenus pour les simulations de mise en forme sont comparés avec les résultats expérimentaux et montrent une bonne correspondance entre les deux

    Contribution à l'analyse de la dynamique des écritures anciennes pour l'aide à l'expertise paléographique

    Get PDF
    Mes travaux de thèse s inscrivent dans le cadre du projet ANR GRAPHEM1 (Graphemebased Retrieval and Analysis for PaleograpHic Expertise of Middle Age Manuscripts). Ilsprésentent une contribution méthodologique applicable à l'analyse automatique des écrituresanciennes pour assister les experts en paléographie dans le délicat travail d étude et dedéchiffrage des écritures.L objectif principal est de contribuer à une instrumetation du corpus des manuscritsmédiévaux détenus par l Institut de Recherche en Histoire des Textes (IRHT Paris) en aidantles paléographes spécialisés dans ce domaine dans leur travail de compréhension de l évolutiondes formes de l écriture par la mise en place de méthodes efficaces d accès au contenu desmanuscrits reposant sur une analyse fine des formes décrites sous la formes de petits fragments(les graphèmes). Dans mes travaux de doctorats, j ai choisi d étudier la dynamique del élément le plus basique de l écriture appelé le ductus2 et qui d après les paléographes apportebeaucoup d informations sur le style d écriture et l époque d élaboration du manuscrit.Mes contributions majeures se situent à deux niveaux : une première étape de prétraitementdes images fortement dégradées assurant une décomposition optimale des formes en graphèmescontenant l information du ductus. Pour cette étape de décomposition des manuscrits, nousavons procédé à la mise en place d une méthodologie complète de suivi de traits à partir del extraction d un squelette obtenu à partir de procédures de rehaussement de contraste et dediffusion de gradients. Le suivi complet du tracé a été obtenu à partir de l application des règlesfondamentales d exécution des traits d écriture, enseignées aux copistes du Moyen Age. Il s agitd information de dynamique de formation des traits portant essentiellement sur des indicationsde directions privilégiées.Dans une seconde étape, nous avons cherché à caractériser ces graphèmes par desdescripteurs de formes visuelles compréhensibles à la fois par les paléographes et lesinformaticiens et garantissant une représentation la plus complète possible de l écriture d unpoint de vue géométrique et morphologique. A partir de cette caractérisation, nous avonsproposé une approche de clustering assurant un regroupement des graphèmes en classeshomogènes par l utilisation d un algorithme de classification non-supervisé basée sur lacoloration de graphe. Le résultat du clustering des graphèmes a conduit à la formation dedictionnaires de formes caractérisant de manière individuelle et discriminante chaque manuscrittraité. Nous avons également étudié la puissance discriminatoire de ces descripteurs afin d obtenir la meilleure représentation d un manuscrit en dictionnaire de formes. Cette étude a étéfaite en exploitant les algorithmes génétiques par leur capacité à produire de bonne sélection decaractéristiques.L ensemble de ces contributions a été testé à partir d une application CBIR sur trois bases demanuscrits dont deux médiévales (manuscrits de la base d Oxford et manuscrits de l IRHT, baseprincipale du projet), et une base comprenant de manuscrits contemporains utilisée lors de lacompétition d identification de scripteurs d ICDAR 2011. L exploitation de notre méthode dedescription et de classification a été faite sur une base contemporaine afin de positionner notrecontribution par rapport aux autres travaux relevant du domaine de l identification d écritures etétudier son pouvoir de généralisation à d autres types de documents. Les résultats trèsencourageants que nous avons obtenus sur les bases médiévales et la base contemporaine, ontmontré la robustesse de notre approche aux variations de formes et de styles et son caractèrerésolument généralisable à tout type de documents écrits.My thesis work is part of the ANR GRAPHEM Project (Grapheme based Retrieval andAnalysis for Expertise paleographic Manuscripts of Middle Age). It represents a methodologicalcontribution applicable to the automatic analysis of ancient writings to assist the experts inpaleography in the delicate work of the studying and deciphering the writing.The main objective is to contribute to an instrumentation of the corpus of medievalmanuscripts held by Institut de Recherche en Histoire de Textes (IRHT-Paris), by helping thepaleographers specialized in this field in their work of understanding the evolution of forms inthe writing, with the establishment of effective methods to access the contents of manuscriptsbased on a fine analysis of the forms described in the form of small fragments (graphemes). Inmy PhD work, I chose to study the dynamic of the most basic element of the writing called theductus and which according to the paleographers, brings a lot of information on the style ofwriting and the era of the elaboration of the manuscript.My major contribution is situated at two levels: a first step of preprocessing of severelydegraded images to ensure an optimal decomposition of the forms into graphemes containingthe ductus information. For this decomposition step of manuscripts, we have proceeded to theestablishment of a complete methodology for the tracings of strokes by the extraction of theskeleton obtained from the contrast enhancement and the diffusion of the gradient procedures.The complete tracking of the strokes was obtained from the application of fundamentalexecution rules of the strokes taught to the scribes of the Middle Ages. It is related to thedynamic information of the formation of strokes focusing essentially on indications of theprivileged directions.In a second step, we have tried to characterize the graphemes by visual shape descriptorsunderstandable by both the computer scientists and the paleographers and thus unsuring themost complete possible representation of the wrting from a geometrical and morphological pointof view. From this characterization, we have have proposed a clustering approach insuring agrouping of graphemes into homogeneous classes by using a non-supervised classificationalgorithm based on the graph coloring. The result of the clustering of graphemes led to theformation of a codebook characterizing in an individual and discriminating way each processedmanuscript. We have also studied the discriminating power of the descriptors in order to obtaina better representation of a manuscript into a codebook. This study was done by exploiting thegenetic algorithms by their ability to produce a good feature selection.The set of the contributions was tested from a CBIR application on three databases ofmanuscripts including two medieval databases (manuscripts from the Oxford and IRHTdatabases), and database of containing contemporary manuscripts used in the writersidentification contest of ICDAR 2011. The exploitation of our description and classificationmethod was applied on a cotemporary database in order to position our contribution withrespect to other relevant works in the writrings identification domain and study itsgeneralization power to other types of manuscripts. The very encouraging results that weobtained on the medieval and contemporary databases, showed the robustness of our approachto the variations of the shapes and styles and its resolutely generalized character to all types ofhandwritten documents.PARIS5-Bibliotheque electronique (751069902) / SudocSudocFranceF

    Mise en place d'une chaîne complète d'analyse de l'arbre trachéo-bronchique à partir d'examen(s) issus d'un scanner-CT (de la 3D vers la 4D)

    Get PDF
    Afin de répondre au problème de santé publique que représente l'asthme, l'imagerie tomodensitométrique associé aux traitements informatiques permettent la quantification et le suivi des dommages subis par les bronches. Le but de l'imagerie bronchique, lors d'un examen de type scanner-CT est de disposer de mesures fiables et reproductibles des différents paramètres bronchiques qui sont des marqueurs de l'importance de la pathologie et de son évolution sous traitements. Ces marqueurs correspondent à deux mesures LA ( Lumen Area) et WA ( Wall Area) prises sur des coupes perpendiculaires à la bronche. La mise en place d'une chaîne de traitements constitué de maillons d'extraction et de squelettisation de l'arbre trachéo-bronchique permet l'obtention de tels mesures. Durant cette thèse nous nous sommes focalisés sur la création d'une chaîne de traitements en proposant une contribution sur chacun des maillons. Notre chaîne est modulable et adaptée au travail en 4D (différentes phases respiratoires) et à fait l'objet d'une implémentation logiciel intitulée Neko4D.[Abstract not provided]BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF

    Comportement thermique macroscopique de milieux fibreux réels anisotropes : étude basée sur l'analyse d'images tridimensionnelles

    Get PDF
    Ce travail de thèse traite de la relation entre les propriétés thermiques effectives de matériaux fibreux à base de bois d’une part et leur microstructure d’autre part. La technique de prise de moyenne est utilisée, dans le cadre général du non-équilibre thermique local, pour écrire les équations de transfert macroscopique de matériaux pouvant présenter une anisotropie locale de conductivité thermique (liée ici aux propriétés intrinsèques des fibres de bois) et exprimer le tenseur de conductivité thermique effective. Le modèle est renseigThis PhD thesis treats the relation between the effective thermal properties of wood based fibrous materials and their microscopic structure. Within the general framework of thermal nonequilibrium, the volume averaging averaging technique is first used in order to express the macroscopic heat transfer equations for materials presenting local thermal conductivity anisotropy (related here to the properties of wood fibres) as well as the effective thermal conductivity tensor. Then, the association of this technique with quantitative analysis of 3D images allows predictive determination of effective thermal conductivity of real fibrous materials. In particular, tools based on mathematical morphology are implemented in order to characterize the microstructure of the fibrous network (porosity, granulometry and geometrical moments) and to quantify the anisotropy (covariograms, local orientation field). A representative elementary volume (REV) satisfying the constraints of the volume averaging technique may then be defined thanks to these informations. A segmentation method based on homotopic thinning skeletonization is also developed in order to identify each fibre. Thus, many parameters (fibres length, tortuosity, number of contact, etc.) are easily extracted from the segmented image and may provide precious information necessary for further numerical generation of fibrous structures. The general method for the computation of the effective thermal properties from an image of a fibrous material is finally validated by comparison with the experimental results.né par l’analyse quantitative d’images 3D de matériaux réels acquises par microtomographie X. Des outils issus de la morphologie mathématique sont mis en oeuvre pour caractériser finement la microstructure du réseau fibreux et en quantifier l’anisotropie locale et globale. Un volume élémentaire représentatif (VER) qui satisfait aux contraintes de la méthode de prise de moyenne peut être défini grâce à ces informations. Une méthode de segmentation basée sur un algorithme de squelettisation par amincissement homotopique est également développée afin d’identifier chaque fibre individuellement, ce qui permet d’accéder à de nombreux paramètres comme la longueur, la tortuosité ou encore le nombre de contacts. Le modèle thermique macroscopique développé ainsi que son implémentation numérique sont d’abord validés par une comparaison avec les prédictions théoriques dans des cas simples puis les valeurs des tenseurs de conductivité thermique effective, obtenus à partir des images de différents matériaux, sont finalement confrontés aux résultats expérimentaux.This PhD thesis treats the relation between the effective thermal properties of wood based fibrous materials and their microscopic structure. Within the general framework of thermal nonequilibrium, the volume averaging averaging technique is first used in order to express the macroscopic heat transfer equations for materials presenting local thermal conductivity anisotropy (related here to the properties of wood fibres) as well as the effective thermal conductivity tensor. Then, the association of this technique with quantitative analysis of 3D images allows predictive determination of effective thermal conductivity of real fibrous materials. In particular, tools based on mathematical morphology are implemented in order to characterize the microstructure of the fibrous network (porosity, granulometry and geometrical moments) and to quantify the anisotropy (covariograms, local orientation field). A representative elementary volume (REV) satisfying the constraints of the volume averaging technique may then be defined thanks to these informations. A segmentation method based on homotopic thinning skeletonization is also developed in order to identify each fibre. Thus, many parameters (fibres length, tortuosity, number of contact, etc.) are easily extracted from the segmented image and may provide precious information necessary for further numerical generation of fibrous structures. The general method for the computation of the effective thermal properties from an image of a fibrous material is finally validated by comparison with the experimental results

    Segmentation fémorale par modèle déformable et programmation dynamique

    Get PDF
    This Ph.D thesis presents new paradigms in the field of segmentation by mean of deformable models. Classic model-based segmentation approach consists of iteratively deform complex models in the space of the scanner slices until the organ to segment is fitted. The proposed works tries to improve the process by decomposing the problem in three distinct phases : First, anatomical landmarks of the organ to segment are automatically detected using a fast ray-casting technique ; A basic deformable model is next initialized to fit these landmarks. It allows approximately fitting the organ contour. This raw approximation can optionally be refined by a conventional registration ; Finally, an active contour method (snakes) allows to accurately delimiting the contour of the organ. Although contour delimitation by classic snake resolution usually converges to a local minimum, this problem is avoided by using dynamic programming. A main advantage of our approach is to propose a good compromise between segmentation speed and quality of the result. It also allows coming back to an interactive segmentation of the organ anytime. CT femoral segmentation of degenerative hips has been used to validate our approach. Good results were achieved on most of the patients. Only highly degenerated femurs with osteoporosis or arthritis were not fully automatically segmented. Thanks to the goods results achieved, this new segmentation paradigm could practically be used in prosthesis planning software like femur resurfacing

    Compression de données d'animation acquises par capture de mouvements

    Full text link
    Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

    Analyse du contenu expressif des gestes corporels

    Get PDF
    Nowadays, researches dealing with gesture analysis suffer from a lack of unified mathematical models. On the one hand, gesture formalizations by human sciences remain purely theoretical and are not inclined to any quantification. On the other hand, the commonly used motion descriptors are generally purely intuitive, and limited to the visual aspects of the gesture. In the present work, we retain Laban Movement Analysis (LMA – originally designed for the study of dance movements) as a framework for building our own gesture descriptors, based on expressivity. Two datasets are introduced: the first one is called ORCHESTRE-3D, and is composed of pre-segmented orchestra conductors’ gestures, which have been annotated with the help of lexicon of musical emotions. The second one, HTI 2014-2015, comprises sequences of multiple daily actions. In a first experiment, we define a global feature vector based upon the expressive indices of our model and dedicated to the characterization of the whole gesture. This descriptor is used for action recognition purpose and to discriminate the different emotions of our orchestra conductors’ dataset. In a second approach, the different elements of our expressive model are used as a frame descriptor (e.g., describing the gesture at a given time). The feature space provided by such local characteristics is used to extract key poses of the motion. With the help of such poses, we obtain a per-frame sub-representation of body motions which is available for real-time action recognition purposeAujourd’hui, les recherches portant sur le geste manquent de modèles génériques. Les spécialistes du geste doivent osciller entre une formalisation excessivement conceptuelle et une description purement visuelle du mouvement. Nous reprenons les concepts développés par le chorégraphe Rudolf Laban pour l’analyse de la danse classique contemporaine, et proposons leur extension afin d’élaborer un modèle générique du geste basé sur ses éléments expressifs. Nous présentons également deux corpus de gestes 3D que nous avons constitués. Le premier, ORCHESTRE-3D, se compose de gestes pré-segmentés de chefs d’orchestre enregistrés en répétition. Son annotation à l’aide d’émotions musicales est destinée à l’étude du contenu émotionnel de la direction musicale. Le deuxième corpus, HTI 2014-2015, propose des séquences d’actions variées de la vie quotidienne. Dans une première approche de reconnaissance dite « globale », nous définissons un descripteur qui se rapporte à l’entièreté du geste. Ce type de caractérisation nous permet de discriminer diverses actions, ainsi que de reconnaître les différentes émotions musicales que portent les gestes des chefs d’orchestre de notre base ORCHESTRE-3D. Dans une seconde approche dite « dynamique », nous définissons un descripteur de trame gestuelle (e.g. défini pour tout instant du geste). Les descripteurs de trame sont utilisés des poses-clés du mouvement, de sorte à en obtenir à tout instant une représentation simplifiée et utilisable pour reconnaître des actions à la volée. Nous testons notre approche sur plusieurs bases de geste, dont notre propre corpus HTI 2014-201

    Estimation de posture 3D à partir de données imprécises et incomplètes : application à l'analyse d'activité d'opérateurs humains dans un centre de tri

    Get PDF
    Dans un contexte d’étude de la pénibilité et de l’ergonomie au travail pour la prévention des troubles musculo-squelettiques, la société Ebhys cherche à développer un outil d’analyse de l’activité des opérateurs humains dans un centre de tri, par l’évaluation d’indicateurs ergonomiques. Pour faire face à l’environnement non contrôlé du centre de tri et pour faciliter l’acceptabilité du dispositif, ces indicateurs sont mesurés à partir d’images de profondeur. Une étude ergonomique nous permet de définir les indicateurs à mesurer. Ces indicateurs sont les zones d’évolution des mains de l’opérateur et d’angulations de certaines articulations du haut du corps. Ce sont donc des indicateurs obtenables à partir d’une analyse de la posture 3D de l’opérateur. Le dispositif de calcul des indicateurs sera donc composé de trois parties : une première partie sépare l’opérateur du reste de la scène pour faciliter l’estimation de posture 3D, une seconde partie calcule la posture 3D de l’opérateur, et la troisième utilise la posture 3D de l’opérateur pour calculer les indicateurs ergonomiques. Tout d’abord, nous proposons un algorithme qui permet d’extraire l’opérateur du reste de l’image de profondeur. Pour ce faire, nous utilisons une première segmentation automatique basée sur la suppression du fond statique et la sélection d’un objet dynamique à l’aide de sa position et de sa taille. Cette première segmentation sert à entraîner un algorithme d’apprentissage qui améliore les résultats obtenus. Cet algorithme d’apprentissage est entraîné à l’aide des segmentations calculées précédemment, dont on sélectionne automatiquement les échantillons de meilleure qualité au cours de l’entraînement. Ensuite, nous construisons un modèle de réseau de neurones pour l’estimation de la posture 3D de l’opérateur. Nous proposons une étude qui permet de trouver un modèle léger et optimal pour l’estimation de posture 3D sur des images de profondeur de synthèse, que nous générons numériquement. Finalement, comme ce modèle n’est pas directement applicable sur les images de profondeur acquises dans les centres de tri, nous construisons un module qui permet de transformer les images de profondeur de synthèse en images de profondeur plus réalistes. Ces images de profondeur plus réalistes sont utilisées pour réentrainer l’algorithme d’estimation de posture 3D, pour finalement obtenir une estimation de posture 3D convaincante sur les images de profondeur acquises en conditions réelles, permettant ainsi de calculer les indicateurs ergonomique
    corecore