454 research outputs found

    Recognition of dynamic phenomena by minimum spanning trees: application to the quantification of the coronary stenosis

    Get PDF
    In this this article we speack about the recognition of dynamic phenomena. This problem is particularly difficult when the variables characterizing the phenomena are experimentally inaccessible. The dynamic systems framework provides solutions to rebuild the dynamics of these variables and consequently to model these phenomena. The reconstruction method is the delays method guided by the W. Liebert, K. Pawelzik, H.G. Schuster's test. To compare the dynamic we propose the use of minimal spanning tree. The length of such tree can be seen like an invariant measurement of the dynamic. The differentiation of dynamic rests on a global parameter which makes it possible to be freed from the local disturbances. This solution is applied to the discrimination of blood flows. The result is a factor of identification of a coronary stenosis.Dans cet article nous traitons de la reconnaissance de phénomènes dynamiques. Ce problème est particulièrement difficile lorsque les variables caractérisant les phénomènes en question sont expérimentalement inaccessibles. Le cadre des systèmes dynamiques fournit alors des solutions pour reconstruire la dynamique de ces variables et par conséquent modéliser ces phénomènes. La méthode de reconstruction employée est la méthode des retards guidée par le test de W. Liebert, K. Pawelzik, H.G. Schuster. Pour comparer les dynamiques, désormais reconstruites, nous préconisons l'utilisation d'arbres de représentation minimaux. La longueur d'un tel arbre, définie sur une dynamique, peut fitre vue comme une mesure invariante de cette dernière. La différentiation des dynamiques repose alors sur un paramètre global qui permet de s'affranchir des perturbations locales susceptibles de polluer les dynamiques. Cette solution est appliquée à la discrimination des écoulements sanguins. Le résultat joue le rôle de facteur d'identification d'une sténose coronarienne

    Approches topologiques pour l'analyse exploratoire de données et l'aide à la décision

    Get PDF
    Depuis au moins les premières pierres taillées de l'ère Paléolithique,les hommes n'ont cessé de créer des artefacts, moyens d'agir sur leur environnementet moyens de l'observer au-delà de leurs capacités propres.Ils ont développé ces outils pour les assister dans leur quête viscérale decompréhension (sciences) et de maîtrise (techniques) de ce monde dont ilsfont partie. Cette compréhension du monde est nécessaire pour en prédireles états, et la maîtrise qui en découle est le moyen de ne plus le subir maisde l'asservir pour réduire les sourances qu'il nous assène par nature. Enplus de transformer le Monde, les hommes ont aussi pu réparer, corriger etaugmenter leur propre corps par des orthèses et des prothèses biologiques,chimiques, mécaniques ou numériques. La multiplication de ces moyensd'agir et d'observer entraîne un accroissement exponentiel des donnéesdésormais capturées dont la masse est supposée assurer les hommes decontenir toute l'information utile à leur quête. Cette massication desdonnées impose de développer des méthodes d'analyse et de traitementtoujours plus ecaces pour que les hommes qui les étudient ou appuientleurs décisions sur elles puissent continuer à le faire et à le faire mieux. J'aiproposé diérentes approches dans les champs de l'analyse descriptive etde la modélisation prédictive an de rendre plus intelligible la chaîne detraitement de l'information du capteur à l'écran. J'ai placé la Topologieau coeur de mes travaux. En eet, je considère qu'elle forme le substratessentiel à l'interprétabilité de l'information, c'est-à-dire à la transmissiondu sens dans cette chaîne, et in ne à la compréhension et à la maîtrisedu Monde par l'Homme.Le développement permanent des artefacts techniques pour tenter demieux comprendre et maîtriser le Monde, entretient la croissance de sacomplexité, à la fois parce que grâce aux artefacts développés pour lascience et la technologie, nous accédons à des mécanismes toujours plusprécis et plus nombreux qui le gouvernent, mais aussi parce que les artefactstechniques engendrés par ces connaissances nouvelles, font partieintégrante du Monde lui-même et en modient le fonctionnement. Auxcauses naturelles s'entremêlent les causes articielles. C'est pour certainsauteurs [Crutzen, Geology of Mankind, Nature 415(6867):23, 2002] une nouvelle ère qui a commencée au 19e siècle, l'ère de l'Anthropocène , dans laquelle l'intelligence des hommes les a dotés de moyenstechniques capable de modier durablement leur écosystème et en particulierles mécanismes de la Sélection Naturelle qui ont engendrée cette intelligence.Il est vraissemblable que ce développement aboutira à l'émergencede machines intelligentes, conscientes et émotionnelles capables d'explorerce monde par elles-mêmes et de communiquer aux hommes leurs conclusionssur les lois qui le gouvernent, comme le font déjà quelques machinesencore rudimentaires mais ecaces [Sparkes et al. An integrated laboratory robotic system for autonomousdiscovery of gene function, JALA 15(1):33-40, 2010]. Ces machines sont la forme ultimede ces orthèses dont les hommes cherchent à se doter depuis le Paléolithique pour tenter de dépasser leur condition. Avant que n'adviennece moment singulier que Kurzweil appelle la Singularité [Kurzweil,The singularity is near : when humans transcendbiology. http ://books.google.fr/books ?id=88U6hdUi6D0C, 2005.], où les machinesautonomes seront en mesure de dépasser l'homme et de développerpour elles-mêmes des connaissances et des techniques, des questionséthiques seront posées qui mèneront soit à l'abandon du développementde telles machines, soit à la nécessité impérieuse de les maîtriser. Il seraalors impératif que les processus internes et les produits de ces machinessoient intelligibles aux hommes an qu'ils en comprennent le sens et enconservent le contrôle. C'est ainsi tout l'enjeu de mes recherches actuelleset futures

    Recherche de nouveaux phénomènes dans les événements diphoton avec le détecteur ATLAS

    Get PDF
    Dans cette thèse, je présente mes travaux de recherche réalisés avec les données de collision proton-proton enregistrées par le détecteur ATLAS. Les événements étudiés possèdent un état final avec au moins deux photons et une grande masse invariante du système diphoton. Le lot de données enregistré pendant l'année 2011 dans des collisions avec une énergie de 7 TeV dans le centre de masse proton-proton correspond à une luminosité intégrée d'environ 5 fb-1. Ces données ont été comparées aux prédictions du Modèle Standard de la Physique des Particules. En l'absence de différences significatives, des contraintes ont été imposées sur les paramètres de modèles prévoyant l'existence de dimensions supplémentaires. A titre d'exemple, le premier graviton de Kaluza-Klein du modèle de Randall-Sundrum a été contraint d'être plus massif que 2.23 TeV, améliorant d'environ 1 TeV la contrainte du Tevatron. Les résultats obtenus ont fait l'objet d'une publication de la part de la collaboration ATLAS. En 2012, le LHC a réalisé des collisions proton-proton avec une énergie dans le centre de masse de 8 TeV. En outre, la luminosité intégrée a été environ quatre fois supérieure qu'en 2011. Les résultats préliminaires obtenus avec ce lot de données sont présentés dans ce document. La revue interne de ces résultats au sein de la collaboration ATLAS est en cours en vue d'une publication en 2013. La détection et la caractérisation des électrons et des photons reposent essentiellement sur le calorimètre à argon liquide du détecteur ATLAS. La procédure qui permet d'évaluer la qualité des mesures de ces particules a été mise en place au début de la prise de données. Ma contribution à son élaboration est décrite dans ce document.In this thesis, I describe my research based on proton-proton collision data collected by the ATLAS detector. The study uses events with at least two photons in the final state and a large invariant mass of the diphoton system. A dataset of proton-proton collisions at a center-of-mass energy of 7 TeV corresponding to an integrated luminosity of approximately 5 fb-1 has been recorded in 2011. This sample has been compared to the predictions of the Standard Model of Particle Physics. Given the good agreement of the data with these predictions, limits have been set on the parameters of models that postulate extra spatial dimensions. As an example, the lightest Kaluza-Klein graviton in the Randall-Sundrum model has been constrained to be more massive than 2.23 TeV, superseding the Tevatron limits by approximately 1 TeV. These results have been published by the ATLAS collaboration. In 2012, the LHC has delivered proton-proton collisions at a center-of-mass energy of 8 TeV. The corresponding integrated luminosity is four times larger than that of the 2011 dataset. Preliminary results based on this dataset are presented in this document. The ATLAS-internal review of these results is ongoing, and a publication is targeted for 2013. The detection and the characterization of electrons and photons are mainly based on the liquid argon calorimeter of the ATLAS detector. A procedure to assess the quality of the measurements of these particles has been established at the beginning of the data taking. My contributions to its development are described in this document.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Identification automatisée des espèces d'arbres dans des scans laser 3D réalisés en forêt

    Get PDF
    The objective of the thesis is the automatic recognition of tree species from Terrestrial LiDAR data. This information is essential for forest inventory. As an answer, we propose different recognition methods based on the 3D geometric texture of the bark.These methods use the following processing steps: a preprocessing step, a segmentation step, a feature extraction step and a final classification step. They are based on the 3D data or on depth images built from 3D point clouds of tree trunks using a reference surface.We have investigated and tested several segmentation approaches on depth images representing the geometric texture of the bark. These approaches have the disadvantages of over segmentation and are quite sensitive to noises. For this reason, we propose a new 3D point cloud segmentation approach inspired by the watershed technique that we have called «Burst Wind Segmentation». Our approach succeed in extracting in most cases the characteristic scars that are next compared to those stored in a dictionary («ScarBook») in order to determine the tree species.A large variety of characteristics is extracted from the regions segmented by the different methods proposed. These characteristics are the roughness, the global shape of the segmented regions, the saliency and the curvature of the contour, the distribution of the contour points, the distribution of the shape according to the different orientations.Finally, for the classification of the visual characteristics, the Random Forest method by Leo Breiman and Adèle Cutler is used in a two steps approach: selection of the most important variables and cross classification with the selected variables.The bark of the tree changes with the trunk diameter. We have thus studied different natural variability criteria and we have tested our approaches on a test set that includes this variability. The accuracy rate is over 96% for all the proposed segmentation approaches but the best result is obtained with the «Burst Wind Segmentation» one due to the fact that this approach can better extract the scars, it uses a dictionary of scars for recognition, and it has been evaluated on a greater variety of shapes, curvatures, saliency and roughness.L’objectif de ces travaux de thèse est la reconnaissance automatique des espèces d’arbres à partir de scans laser terrestres, information indispensable en inventaire forestier. Pour y répondre, nous proposons différentes méthodes de reconnaissance d’espèce basées sur la texture géométrique 3D des écorces.Ces différentes méthodes utilisent la séquence de traitement suivante : une étape de prétraitement, une étape de segmentation, une étape d’extraction des caractéristiques et une dernière étape de classification. Elles sont fondées sur les données 3D ou bien sur des images de profondeur extraites à partir des nuages de points 3D des troncs d’arbres en utilisant une surface de référence.Nous avons étudié et testé différentes approches de segmentation sur des images de profondeur représentant la texture géométrique de l'écorce. Ces approches posent des problèmes de sur-Segmentation et d'introduction de bruit. Pour cette raison, nous proposons une nouvelle approche de segmentation des nuages de points 3D : « Burst Wind Segmentation », inspirée des lignes de partage des eaux. Cette dernière réussit, dans la majorité des cas, à extraire des cicatrices caractéristiques qui sont ensuite comparées à un dictionnaire des cicatrices (« ScarBook ») pour discriminer les espèces d’arbres.Une grande variété de caractéristiques est extraite à partir des régions segmentées par les différentes méthodes proposées. Ces caractéristiques représentent le niveau de rugosité, la forme globale des régions segmentées, la saillance et la courbure du contour, la distribution des points de contour, la distribution de la forme selon différents angles,...Enfin, pour la classification des caractéristiques visuelles, les forêts aléatoires (Random Forest) de Leo Breiman et Adèle Cutler sont utilisées dans une approche à deux étapes : sélection des variables importantes, puis classification croisée avec les variables retenues, seulement.L’écorce de l’arbre change avec l'accroissement en diamètre ; nous avons donc étudié différents critères de variabilité naturelle et nous avons testé nos approches sur une base qui présente cette variabilité. Le taux de bonne classification dépasse 96% dans toutes les approches de segmentation proposées mais les meilleurs résultats sont atteints avec la nouvelle approche de segmentation « Burst Wind Segmentation » étant donné que cette approche réussit mieux à extraire les cicatrices, utilise un dictionnaire de cicatrices et a été évaluée sur une plus grande variété de caractéristiques de forme, de courbure, de saillance et de rugosité

    L'abduction en conception architecturale : une sémiose hypostatique

    Get PDF
    Cette thèse développe un modèle sémiotique de l’abduction pour représenter un processus de conception architecturale. Elle formalise ce processus par une dualisation hypostatique du rapport sémiotique entre un problème de conception, saisi en tant que signe, et la possibilité de sa matérialisation géométrique. La dualisation réintègre ce signe dans le domaine des systèmes de savoir-concevoir utilisés en conception architecturale, et par conséquent, elle génère de nouvelles solutions architecturales. L’abduction modifie les connaissances préalables engagées dans la production d’une solution (l’hypothèse) et en introduit de nouvelles. La complexité du processus de conception implique, au niveau méthodologique et à partir d’une position épistémologique constructiviste, l’intégration de la subjectivité du concepteur dans le modèle. Ainsi résulte une incertitude des interactions entre problème de conception, production de solution, concepteur et contexte. La sémiotisation de l’abduction architecturale explicite le rôle central de l’interprétation dans la création d’une solution. D’ailleurs, la dualisation s’appuie sur la théorie des possibilités pour opérationnaliser le calcul interprétatif incertain et pour valider les hypothèses générées. En retour, la gestion de la propagation de cette incertitude, dans le modèle sémiotique, facilite l’identification et la formulation des solutions, et rend possible une émergence observationnelle de la nouveauté. Le modèle développé est appliqué à un cas de transformations architecturales géométriques dans un milieu urbain fortement caractérisé.This thesis develops a semiotic model of abduction to represent a process of architectural design. It formalizes this process by the means of a hypostatic dualization, applied to the semiotic relationship between, on the one hand, a design problem, considered as a sign, and on the other, the possibility of its geometric materialization. The dualization reintegrate this sign in the domain of know-how systems used in architectural design, and consequently, it generates new architectural solutions. Abduction modifies and augments the prior knowledge involved in producing the solution (the hypothesis). From a constructivist stance and the ensuing methodological viewpoint, the complexity of the design process implies embedding the designer’s subjectivity in the model. Thus arises an uncertainty about the interactions among design problem, solution production, designer and context. Semiotizing architectural abduction reveals the central role played by interpretation in creating a solution. Besides, dualization relies on possibility theory to formalize the resulting, and uncertain, interpretation calculus, and to validate the obtained hypotheses. In return, managing the uncertainty propagation within the semiotic model, facilitates the identification and the formulation of architectural solutions and allows for an observational emergence of novelty. The developed model is applied to a case of architectural geometric transformations in a heavily characterized neighborhood

    Modélisation et identification de facteurs environnementaux géographiques liés à des risques morbides : Application aux séquelles développées après le traitement d'une leucémie : Cohorte LEA

    Get PDF
    This thesis is an interdisciplinary approach combining Geography, Epidemiology and Statistics. It is a methodological thesis applying to a public health issue. The concept consist in developing a dialectical adapted to the geographic health and proposing or transposing probabilistic methods, geostatistical and datamining instruments, to model and to identify geographic environmental factors related to morbid risks. In this research the environment is considered in its integrity. It is described by spatiotemporal indicators: physicochemical, health and socioeconomic. The geographical environment of the individual and medical characteristics of targeted populations is also taken into account. Heuristic proposals aim to identify environmental health determinants, or contributing risk factors. The methods have been implemented or adapted to the issue. They are applicable and reproducible in all diseases studied in Geographic Health. In order, to illustrate these proposals, they are applied to squeals observed following the treatment of childhood leukemia - Cohort LEA. In developed countries, access to effective treatments leads to an increase of squeals incidence. Those have an impact on the quality of life. Therefore, post-cancer and children's health have positioned themselves at the core of social concerns in Europe and in France. Beyond the scientific goals, contributions in public health are expected. The idea is to provide operational space indicators to politicians in order to help them to take collective health measures. And for health professionals to be able to offer individual medical solutions, devoted to reduce the risk of exposure to environmental factors of the populations due to their geographical location. In consequence, to improve access to a good environmental health.Cette thèse s'inscrit dans le cadre d'une approche interdisciplinaire mêlant la Géographie à l'épidémiologie et à la Statistique. Il s’agit d’une thèse d’ordre méthodologique appliquée à une problématique de santé publique. L'idée est de concevoir une dialectique adaptée à la géographie de la santé et de proposer ou transposer des méthodes probabilistes, géostatistiques et d’apprentissage statistique afin de modéliser, puis d’identifier des Facteurs Environnementaux (FE) géographiques liés à des risques morbides. Dans cette recherche l’environnement est considéré dans ses multiples dimensions. Il est décrit par des indicateurs spatiotemporels physicochimiques, sanitaires et socio-économiques. L’environnement géographique des Caractéristiques Individuelles et Médicales (CIM) des populations ciblées est aussi pris en compte. Les propositions heuristiques visent à identifier des Déterminants Environnementaux de Santé (DES) ou des facteurs de risques contributifs. La dialectique se veut opérationnelle et reproductible à toutes les maladies. Les propositions sont appliquées à des séquelles développées après le traitement d’une leucémie chez l’enfant - Cohorte LEA. Dans les pays développés, l’accès à des traitements performants engendre une augmentation de l’incidence des séquelles - qui ont des répercussions sur la qualité de vie. Par conséquent, l’après-cancer et la santé des enfants se sont positionnés au cœur des préoccupations sociales en Europe en général et en France, en particulier. Au-delà des objectifs scientifiques visés, des contributions en santé publique sont attendues. Il s’agit de proposer des indicateurs spatiaux opérationnels permettant aux hommes politiques de mettre en place des mesures sanitaires collectives, et aux praticiens de santé de proposer des solutions préventives individuelles - visant à réduire les risques environnementaux d’exposition auxquels sont assujetties les populations du simple fait de leur situation géographique. Et ainsi, d’améliorer l’accès à une bonne santé environnementale

    Fouille de données : vers une nouvelle approche intégrant de façon cohérente et transparente la composante spatiale

    Get PDF
    Depuis quelques décennies, on assiste à une présence de plus en plus accrue de l’information géo-spatiale au sein des organisations. Cela a eu pour conséquence un stockage massif d’informations de ce type. Ce phénomène, combiné au potentiel d’informations que renferment ces données, on fait naître le besoin d’en apprendre davantage sur elles, de les utiliser à des fins d’extraction de connaissances qui puissent servir de support au processus de décision de l’entreprise. Pour cela, plusieurs approches ont été envisagées dont premièrement la mise à contribution des outils de fouille de données « traditionnelle ». Mais face à la particularité de l’information géo-spatiale, cette approche s’est soldée par un échec. De cela, est apparue la nécessité d’ériger le processus d’extraction de connaissances à partir de données géographiques en un domaine à part entière : le Geographic Knowlegde Discovery (GKD). La réponse à cette problématique, par le GKD, s’est traduite par la mise en œuvre d’approches qu’on peut catégoriser en deux grandes catégories: les approches dites de prétraitement et celles de traitement dynamique de l’information spatiale. Pour faire face aux limites de ces méthodes et outils nous proposons une nouvelle approche intégrée qui exploite l’existant en matière de fouille de données « traditionnelle ». Cette approche, à cheval entre les deux précédentes vise comme objectif principal, le support du type géo-spatial à toutes les étapes du processus de fouille de données. Pour cela, cette approche s’attachera à exploiter les relations usuelles que les entités géo-spatiales entretiennent entre elles. Un cadre viendra par la suite décrire comment cette approche supporte la composante spatiale en mettant à contribution des bibliothèques de traitement de la donnée géo-spatiale et les outils de fouille « traditionnelle »In recent decades, geospatial data has been more and more present within our organization. This has resulted in massive storage of such information and this, combined with the learning potential of such information, gives birth to the need to learn from these data, to extract knowledge that can be useful in supporting decision-making process. For this purpose, several approaches have been proposed. Among this, the first has been to deal with existing data mining tools in order to extract any knowledge of such data. But due to a specificity of geospatial information, this approach failed. From this arose the need to erect the process of extracting knowledge from geospatial data in its own right; this lead to Geographic Knowledge Discovery. The answer to this problem, by GKD, is reflected in the implementation of approaches that can be categorized into two: the so-called pre-processing approaches and the dynamic treatment of spatial relationships. Given the limitations of these approaches we propose a new approach that exploits the existing data mining tools. This approach can be seen as a compromise of the two previous. It main objective is to support geospatial data type during all steps of data mining process. To do this, the proposed approach will exploit the usual relationships that geo-spatial entities share each other. A framework will then describe how this approach supports the spatial component involving geo-spatial libraries and "traditional" data mining tool

    Analyse, reconnaissance et réalisation des gestes pour l'entraînement en chirurgie laparoscopique robotisée

    Get PDF
    Integration of robotic systems in the operating room changed the way that surgeries are performed. It modifies practices to improve medical benefits for the patient but also brought non-traditional aspects that can lead to serious undesirable effects. Recent studies from the French authorities for hygiene and medical care highlight that these undesirable effects mainly come from the surgeon's technical skills, which question surgical robotic training and teaching. To overcome this issue, surgical simulators help to train practitioner through different training tasks and provide feedback to the operator. However the feedback is partial and do not help the surgeon to understand gestural mistakes. Thus, we want to improve the surgical robotic training conditions. The objective of this work is twofold. First, we developed a new method for segmentation and recognition of surgical gestures during training sessions based on an unsupervised approach. From surgical tools kinematic data, we are able to achieve gesture recognition at 82%. This method is a first step to evaluate technical skills based on gestures and not on the global execution of the task as it is done nowadays. The second objective is to provide easier access to surgical training and make it cheaper. To do so, we studied a new contactless human-machine interface to control surgical robots. In this work, the interface is plugged to a Raven-II robot dedicated to surgical robotics research. Then, we evaluated performance of such system through multiple studies, concluding that this interface can be used to control surgical robots. In the end, one can consider to use this contactless interface for surgical training with a simulator. It can reduce the training cost and also improve the access for novice surgeons to technical skills training dedicated to surgical robotics.L'intégration de systèmes robotiques au sein du bloc opératoire a modifié le déroulement de certaines interventions, laissant ainsi place à des pratiques favorisant le bénéfice médical rendu au patient en dépit des aspects conventionnels. Dans ce cadre, de récentes études de la Haute Autorité de Santé ont mis en avant les effets indésirables graves intervenant au cours des procédures chirurgicales robotisées. Ces erreurs, majoritairement dues aux compétences techniques du praticien, remettent ainsi en cause la formation et les techniques d'apprentissage pour la chirurgie robotisée. Bien que l'utilisation abondante de simulateurs facilite cet apprentissage au travers différents types d'entraînement, le retour fourni à l'opérateur reste succinct et ne lui permet pas de progresser dans de bonnes conditions. De ce fait, nous souhaitons améliorer les conditions d'entraînement en chirurgie laparoscopique robotisée. Les objectifs de cette thèse sont doubles. En premier lieu, ils visent le développement d'une méthode pour la segmentation et la reconnaissance des gestes chirurgicaux durant l'entraînement en se basant sur une approche non-supervisée. Utilisant les données cinématiques des instruments chirurgicaux, nous sommes capables de reconnaître les gestes réalisés par l'opérateur à hauteur de 82%. Cette méthode est alors une première étape pour l'évaluation de compétences basée sur la gestuelle et non sur l'ensemble de la tâche d'entraînement. D'autre part, nous souhaitons rendre l'entraînement en chirurgie robotisée plus accessible et moins coûteux. De ce fait, nous avons également étudié l'utilisation d'une nouvelle interface homme-machine sans contact pour la commande des robots chirurgicaux. Dans ces travaux, cette interface a été couplée au Raven-II, un robot de téléopération dédié à la recherche en robotique chirurgicale. Nous avons alors évalué les performances du système au travers différentes études, concluant ainsi à la possibilité de téléopérer un robot chirurgical avec ce type de dispositif. Il est donc envisageable d'utiliser ce type d'interface pour l'entraînement sur simulateur afin de réduire le coût de la formation, mais également d'améliorer l'accès et l'acquisition des compétences techniques spécifiques à la chirurgie robotisée
    corecore