17 research outputs found

    Apprentissage par dictionnaire pour la synthÚse des détails de surface d'une simulation de fluide par particules

    Get PDF
    En infographie, la modĂ©lisation de phĂ©nomĂšnes naturels, tels que les fluides, est une tĂąche plutĂŽt complexe et nĂ©cessite des temps de calcul importants. De plus, la mise en valeur des dĂ©tails fins de simulations de fluide, telles que les forces de turbulence en surface, est un sujet actif de recherche dans le domaine des effets visuels. L’intĂ©rĂȘt de ces recherches est notamment de conserver ces dĂ©tails, particuliĂšrement Ă  la surface du fluide. Il peut ĂȘtre parfois difficile d’obtenir le rĂ©sultat dĂ©sirĂ© avec de telles simulations. D’ailleurs, le comportement d’une simulation est fortement dĂ©pendant du nombre de particules. Certains Ă©lĂ©ments importants peuvent ressortir simplement en augmentant le nombre de particules d’une simulation. L’énergie cinĂ©tique et les forces de turbulence sont aussi des facteurs importants qui peuvent influencer le comportement d’un fluide. L’approche prĂ©sentĂ©e dans ce mĂ©moire a pour but de recrĂ©er l’apparence en surface d’une simulation en haute rĂ©solution Ă  partir d’une simulation en basse rĂ©solution, et ce, Ă  l’aide d’un apprentissage par dictionnaire. L’apprentissage est fait Ă  partir d’un dictionnaire couplĂ©, c’est-Ă -dire gĂ©nĂ©rĂ© Ă  partir de la concatĂ©nation de trois dictionnaires. Les dictionnaires permettent d’établir une correspondance entre la gĂ©omĂ©trie de la surface des exemples appris et certaines propriĂ©tĂ©s physiques. Les exemples appris sont reprĂ©sentĂ©s par des parcelles en surface du fluide. Notre mĂ©thode considĂšre ces parcelles comme des champs de hauteurs. Le spectre d’énergie cinĂ©tique et les forces de vorticitĂ© sont aussi Ă©valuĂ©s par parcelle afin de conserver certaines propriĂ©tĂ©s physiques du fluide. La modĂ©lisation des nouvelles parcelles est formulĂ©e comme un problĂšme d’optimisation sous contraintes gĂ©omĂ©triques et physiques. Le rĂ©sultat de la minimisation permet d’obtenir une combinaison linĂ©aire pondĂ©rĂ©e des atomes du dictionnaire. Ce vecteur creux pondĂ©rĂ© est utilisĂ© pour obtenir une reprĂ©sentation Ă  haute rĂ©solution de chaque parcelle Ă  basse rĂ©solution en entrĂ©e. Enfin, un terme de cohĂ©rence spatiale doit ĂȘtre ajoutĂ© pour forcer les bordures d’une parcelle Ă  ĂȘtre alignĂ©es avec celles de ses voisins. Cette approche permet de modĂ©liser l’aspect gĂ©nĂ©ral de la surface d’un fluide en haute rĂ©solution, et ce, uniquement Ă  partir de quelques milliers de particules. De plus, ce traitement est fait en une fraction du temps nĂ©cessaire pour gĂ©nĂ©rer la simulation en haute rĂ©solution. MalgrĂ© le fait que les objectifs ne soient pas les mĂȘmes qu’avec des mĂ©thodes de synthĂšse de dĂ©tail par vortex, notre approche peut ĂȘtre utilisĂ©e en complĂ©ment avec ces derniĂšres

    Automatisation de la création de scénarios pour les scÚnes de la visualisation scientifique

    Get PDF
    RÉSUMÉ Bien que l’automatisation de la gĂ©nĂ©ration des chemins de camĂ©ra soit une pratique courante dans le cinĂ©ma et le jeu vidĂ©o, elle fait preuve d’un retard important dans le milieu de la visualisation scientifique. La taille, la nature, la densitĂ© du maillage ainsi que l’absence de notions scĂ©naristiques telles que les personnages et les actions font que l’opĂ©ration d’import de rĂšgles de composition issues de domaines artistiques comme le cinĂ©ma ou la photographie ainsi que l’application des rĂšgles du montage deviennent plus complexe. Ce mĂ©moire introduit une mĂ©thodologie qui propose une mĂ©tamodĂ©lisation des attentes des scientifiques vis-Ă -vis de leurs donnĂ©es ainsi qu’une modĂ©lisation des comportements de donnĂ©es qui peuvent les intĂ©resser. Ces modĂšles permettent de bĂątir plus facilement des chemins de camĂ©ra pour des scĂšnes numĂ©riques issues de simulations ou d’acquisitions. L’application des rĂšgles issues de la composition et du montage dans le but de produire des dĂ©placements de camĂ©ra prĂ©servent l’intention du scientifique deviennent alors plus simple. La mĂ©thode a Ă©tĂ© expĂ©rimentĂ©e sur un ensemble de scĂšnes issues de la mĂ©canique des fluides et du gĂ©nie biomĂ©dical; les rĂ©sultats obtenus sur ces scĂšnes nous ont permis de valider le fonctionnement de la mĂ©thodologie. Sont Ă©galement proposĂ©s par la mĂ©thode un ensemble de paramĂštres de contrĂŽle afin de modifier le processus de gĂ©nĂ©ration pour mieux l’adapter aux besoins prĂ©cis que peut avoir un scientifique vis-Ă -vis d’une scĂšne.----------ABSTRACT Automatic camera path generation is a common practice in film making and video games. However, it demonstrated a significant delay in scientific visualization due to the size, the nature, the mesh density and the lack of scriptwriting notions such as characters and actions. In this case, importing cinematography composition, photography composition and match cut rules becomes a more complex operation. This thesis presents a methodology that provides meta-models for the scientists' visualization expectations regarding their data and for the data behaviors that may interest them. These models make the camera paths generation process more intuitive. The application of composition and match cut rules, in order to produce camera moves that preserves the scientist's intention, becomes simpler. The method was tested on a set of scenes from fluid mechanics and biomedical engineering; the obtained results showed that our approach is a simple and efficient way for producing presentation videos. A set of control parameters are also provided by this method, in order to adapt the generation process to the specific needs that a scientist can have regarding his data

    ”Haptic Processor Unit” : vers une Plate-Forme Transportable pour la Simulation Temps-RĂ©el Synchrone Multisensorielle

    Get PDF
    This work is related to the field of Human-Computer Interaction, and particularly to the field of multisensory instrumental simulation, as conceptualized by the research group ACROE & ICA, and which needs a strong coupling between the human and the instrument.The first part of this thesis presents various degrees of the integration of gesture in computer uses, then develops a functional approach of force feedback technologies. This analysis elicits the mainstreams that are currently sharing the field of haptics research. We then present a study of the hardware and software components that are used in haptic simulation, and the various approaches used to connect a force feedback device to a real time modelling system. The analysis of the role of each of the components in the simulation chain and their relationships allowed us to conceptualize the “Haptic Processor Unit”. This component guarantees in particular the conditions of reactivity that are required for multisensory simulation. The new simulation architecture that we designed in this work, named ERGON_X, implements the concept of HPU. ERGON_X is a compact and transportable simulator, and handles simulation frequencies up to 44 100Hz. The third part presents the validation of the simulation platform ERGON_X. It mainly focuses on the design of new models, which were used in the framework of the research carried on by ACROE & ICA about instrumental interaction. The “E” is a model demonstrating the capabilities of the ERGOS technology, which is now fully exploitable thanks to this new simulation architecture. The models of tapping and of deformable paste allowed us to bring new results on human-object interaction, and validate the simulator as a tool for psychophysical experimentation. The Enactive Emblematic Scenarii “Ergotic Sounds” and “Pebble Box” illustrate the conception of Enaction. They validate the use of our simulation architecture as an experimental platform and lead us to a paradigm shift from “instrumental interaction” to “enactive interaction”Ce travail se situe dans le domaine de l’Interaction Personne-SystĂšme, et plus particuliĂšrement dans celui de la simulation instrumentale multisensorielle telle que conceptualisĂ©e par le groupe de recherche ACROE & ICA, qui nĂ©cessite un couplage fort homme-instrument.La premiĂšre partie de cette thĂšse prĂ©sente les diffĂ©rents degrĂ©s d’intĂ©gration du geste dans l’ordinateur, puis propose une approche fonctionnelle des technologies pour le retour d’effort. Nous dĂ©gageons de cette analyse les grandes approches qui se partagent actuellement le champ de la recherche « haptique ».Nous prĂ©sentons ensuite une Ă©tude sur les diffĂ©rents composants matĂ©riels et logiciels nĂ©cessaires Ă  la chaĂźne de simulation haptique, ainsi que les diffĂ©rentes approches utilisĂ©es pour connecter un systĂšme Ă  retour d’effort Ă  un processus de simulation en temps rĂ©el. L’analyse du rĂŽle des composants de la chaĂźne de simulation et de leurs relations permet de formaliser le concept de « Haptic Processor Unit ». Ce composant permet en particulier de garantir les conditions de rĂ©activitĂ© propres Ă  la simulation multisensorielle. La nouvelle architecture de simulation multisensorielle que nous avons rĂ©alisĂ©e, ERGON_X, met en Ɠuvre le concept de HPU.ERGON_X est un simulateur compact et transportable, et permet d’utiliser des frĂ©quences de simulation jusqu’à 44 100Hz. La derniĂšre partie prĂ©sente la validation de la plate-forme de simulation ERGON_X. Elle est essentiellement orientĂ©e vers l’implantation de nouveaux modĂšles, utilisĂ©s dans le cadre d’un travail de recherche sur la situation instrumentale mĂ©diatisĂ©e. Le « E » est un modĂšle de dĂ©monstration des performances de la technologie ERGOS que la nouvelle architecture de simulation permet d’exploiter pleinement. Les modĂšles de tapping (percussion) et de pĂątes dĂ©formables ont permis d’avancer des rĂ©sultatssur l’interaction homme-objet, et valident le simulateur comme un outil pour l’expĂ©rimentation psychophysique. Les Enactive Emblematic Scenarii « Ergotic Sounds » (frottement d’archet) et « Pebble Box » (la boĂźte Ă  cailloux) sont des illustrations du concept de l’Enaction. Elles valident l’utilisation de l’architecture de simulation comme une plate-forme pour l’expĂ©rimentation et ouvrent de nouvelles perspectives de recherche sur l’enaction et la notion de prĂ©sence en simulation interactive

    Exploration et analyse immersives de données moléculaires guidées par la tùche et la modélisation sémantique des contenus

    Get PDF
    In structural biology, the theoretical study of molecular structures has four main activities organized in the following scenario: collection of experimental and theoretical data, visualization of 3D structures, molecular simulation, analysis and interpretation of results. This pipeline allows the expert to develop new hypotheses, to verify them experimentally and to produce new data as a starting point for a new scenario.The explosion in the amount of data to handle in this loop has two problems. Firstly, the resources and time dedicated to the tasks of transfer and conversion of data between each of these four activities increases significantly. Secondly, the complexity of molecular data generated by new experimental methodologies greatly increases the difficulty to properly collect, visualize and analyze the data.Immersive environments are often proposed to address the quantity and the increasing complexity of the modeled phenomena, especially during the viewing activity. Indeed, virtual reality offers a high quality stereoscopic perception, useful for a better understanding of inherently three-dimensional molecular data. It also displays a large amount of information thanks to the large display surfaces, but also to complete the immersive feeling with other sensorimotor channels (3D audio, haptic feedbacks,...).However, two major factors hindering the use of virtual reality in the field of structural biology. On one hand, although there are literature on navigation and environmental realistic virtual scenes, navigating abstract science is still very little studied. The understanding of complex 3D phenomena is however particularly conditioned by the subject’s ability to identify themselves in a complex 3D phenomenon. The first objective of this thesis work is then to propose 3D navigation paradigms adapted to the molecular structures of increasing complexity. On the other hand, the interactive context of immersive environments encourages direct interaction with the objects of interest. But the activities of: results collection, simulation and analysis, assume a working environment based on command-line inputs or through specific scripts associated to the tools. Usually, the use of virtual reality is therefore restricted to molecular structures exploration and visualization. The second thesis objective is then to bring all these activities, previously carried out in independent and interactive application contexts, within a homogeneous and unique interactive context. In addition to minimizing the time spent in data management between different work contexts, the aim is also to present, in a joint and simultaneous way, molecular structures and analyses, and allow their manipulation through direct interaction.Our contribution meets these objectives by building on an approach guided by both the content and the task. More precisely, navigation paradigms have been designed taking into account the molecular content, especially geometric properties, and tasks of the expert, to facilitate spatial referencing in molecular complexes and make the exploration of these structures more efficient. In addition, formalizing the nature of molecular data, their analysis and their visual representations, allows to interactively propose analyzes adapted to the nature of the data and create links between the molecular components and associated analyzes. These features go through the construction of a unified and powerful semantic representation making possible the integration of these activities in a unique interactive context.En biologie structurale, l’étude thĂ©orique de structures molĂ©culaires comporte quatre activitĂ©s principales organisĂ©es selon le processus sĂ©quentiel suivant : la collecte de donnĂ©es expĂ©rimentales/thĂ©oriques, la visualisation des structures 3d, la simulation molĂ©culaire, l’analyse et l’interprĂ©tation des rĂ©sultats. Cet enchaĂźnement permet Ă  l’expert d’élaborer de nouvelles hypothĂšses, de les vĂ©rifier de maniĂšre expĂ©rimentale et de produire de nouvelles donnĂ©es comme point de dĂ©part d’un nouveau processus.L’explosion de la quantitĂ© de donnĂ©es Ă  manipuler au sein de cette boucle pose dĂ©sormais deux problĂšmes. PremiĂšrement, les ressources et le temps relatifs aux tĂąches de transfert et de conversion de donnĂ©es entre chacune de ces activitĂ©s augmentent considĂ©rablement. DeuxiĂšmement, la complexitĂ© des donnĂ©es molĂ©culaires gĂ©nĂ©rĂ©es par les nouvelles mĂ©thodologies expĂ©rimentales accroĂźt fortement la difficultĂ© pour correctement percevoir, visualiser et analyser ces donnĂ©es.Les environnements immersifs sont souvent proposĂ©s pour aborder le problĂšme de la quantitĂ© et de la complexitĂ© croissante des phĂ©nomĂšnes modĂ©lisĂ©s, en particulier durant l’activitĂ© de visualisation. En effet, la RĂ©alitĂ© Virtuelle offre entre autre une perception stĂ©rĂ©oscopique de haute qualitĂ© utile Ă  une meilleure comprĂ©hension de donnĂ©es molĂ©culaires intrinsĂšquement tridimensionnelles. Elle permet Ă©galement d’afficher une quantitĂ© d’information importante grĂące aux grandes surfaces d’affichage, mais aussi de complĂ©ter la sensation d’immersion par d’autres canaux sensorimoteurs.Cependant, deux facteurs majeurs freinent l’usage de la RĂ©alitĂ© Virtuelle dans le domaine de la biologie structurale. D’une part, mĂȘme s’il existe une littĂ©rature fournie sur la navigation dans les scĂšnes virtuelles rĂ©alistes et Ă©cologiques, celle-ci est trĂšs peu Ă©tudiĂ©e sur la navigation sur des donnĂ©es scientifiques abstraites. La comprĂ©hension de phĂ©nomĂšnes 3d complexes est pourtant particuliĂšrement conditionnĂ©e par la capacitĂ© du sujet Ă  se repĂ©rer dans l’espace. Le premier objectif de ce travail de doctorat a donc Ă©tĂ© de proposer des paradigmes navigation 3d adaptĂ©s aux structures molĂ©culaires complexes. D’autre part, le contexte interactif des environnements immersif favorise l’interaction directe avec les objets d’intĂ©rĂȘt. Or les activitĂ©s de collecte et d’analyse des rĂ©sultats supposent un contexte de travail en "ligne de commande" ou basĂ© sur des scripts spĂ©cifiques aux outils d’analyse. Il en rĂ©sulte que l’usage de la RĂ©alitĂ© Virtuelle se limite souvent Ă  l’activitĂ© d’exploration et de visualisation des structures molĂ©culaires. C’est pourquoi le second objectif de thĂšse est de rapprocher ces diffĂ©rentes activitĂ©s, jusqu’alors rĂ©alisĂ©es dans des contextes interactifs et applicatifs indĂ©pendants, au sein d’un contexte interactif homogĂšne et unique. Outre le fait de minimiser le temps passĂ© dans la gestion des donnĂ©es entre les diffĂ©rents contextes de travail, il s’agit Ă©galement de prĂ©senter de maniĂšre conjointe et simultanĂ©e les structures molĂ©culaires et leurs analyses et de permettre leur manipulation par des interactions directes.Notre contribution rĂ©pond Ă  ces objectifs en s’appuyant sur une approche guidĂ©e Ă  la fois par le contenu et la tĂąche. Des paradigmes de navigation ont Ă©tĂ© conçus en tenant compte du contenu molĂ©culaire, en particulier des propriĂ©tĂ©s gĂ©omĂ©triques, et des tĂąches de l’expert, afin de faciliter le repĂ©rage spatial et de rendre plus performante l’activitĂ© d’exploration. Par ailleurs, formaliser la nature des donnĂ©es molĂ©culaires, leurs analyses et leurs reprĂ©sentations visuelles, permettent notamment de proposer Ă  la demande et interactivement des analyses adaptĂ©es Ă  la nature des donnĂ©es et de crĂ©er des liens entre les composants molĂ©culaires et les analyses associĂ©es. Ces fonctionnalitĂ©s passent par la construction d’une reprĂ©sentation sĂ©mantique unifiĂ©e et performante rendant possible l’intĂ©gration de ces activitĂ©s dans un contexte interactif unique

    Modélisation et quantification 3D de la taille des superficies corporelles brûlées

    Get PDF
    Pour des patients grands brĂ»lĂ©s, une estimation prĂ©cise du pourcentage des superficies brĂ»lĂ©es (%TBSA) est cruciale pour l’évaluation du pronostic vital et fonctionnel, la planification appropriĂ©e de traitements et pour minimiser les complications mĂ©dicales et chirurgicales. Les mĂ©thodes cliniques actuelles manquent de prĂ©cision et de fiabilitĂ© pour estimer des patients de morphologies diffĂ©rentes. Les approches de modĂ©lisation 2D/3D des brĂ»lures approximent l’évaluation du %TBSA et sont imprĂ©cises. Seule la modĂ©lisation paramĂ©trique satisfait aux exigences cliniques particuliĂšres aux grands brĂ»lĂ©s (temps limitĂ©, patients inconscients, environnement restreint). Afin de rĂ©pondre au besoin de personnalisation 3D de la morphologie des patients, il est suggĂ©rĂ© d’utiliser le logiciel open source MakeHuman (MH). Ainsi, cette thĂšse propose une approche de modĂ©lisation 3D personnalisĂ©e de la morphologie des patients Ă  partir d’un nombre de mesures anthropomĂ©triques limitĂ© pour l’estimation prĂ©cise du %TBSA. D’abord, avec des performances prĂ©dictives supĂ©rieures Ă  98%, plusieurs analyses de rĂ©gression ont permis de dĂ©montrer qu’un nombre limitĂ© de mesures anthropomĂ©triques est suffisant pour une modĂ©lisation 3D de la surface corporelle (BSA) prĂ©cise. Ensuite, la pertinence de personnaliser les modĂšles 3D MH Ă  la morphologie du patient pour une meilleure Ă©valuation du %TBSA a Ă©tĂ© dĂ©montrĂ©e. En utilisant une interface de rendue 3D dĂ©veloppĂ©e pour la reprĂ©sentation et le calcul du %TBSA, six patrons de brĂ»lures ont Ă©tĂ© appliquĂ©s automatiquement Ă  l’ensemble de 15 paires de modĂšles 3D ayant la mĂȘme BSA, mais des morphologies diffĂ©rentes. Des petites variations dans la morphologie de 0.04 m2 ± 0.01 (caractĂ©risĂ©e par le pourcentage de surface brĂ»lĂ©e) ont induit des surestimations dans le %TBSA. 8 experts et 6 non-experts ont Ă©valuĂ© le %TBSA de patrons de brĂ»lures simulĂ©s sur 4 mannequins commerciaux avec la mĂ©thode clinique puis en 3D avec l’interface. La mĂ©thode clinique a obtenu une erreur moyenne de 34 % ± 11 tandis que l’approche proposĂ©e est plus prĂ©cise, plus rĂ©pĂ©table et reproductible avec une erreur moyenne de 5 % ± 1. Enfin, Ă  partir d’un Ă©chantillon stratifiĂ© de 50 000 morphologies gĂ©nĂ©rĂ©es alĂ©atoirement, plusieurs algorithmes d’apprentissage machine ont Ă©tĂ© utilisĂ©s afin d’identifier les ensembles de 3 Ă  4 mesures anthropomĂ©triques les plus pertinentes pour une modĂ©lisation 3D prĂ©cise de la morphologie. La prĂ©cision de la modĂ©lisation 3D a Ă©tĂ© validĂ©e sur 8 sujets saints. Les algorithmes d’apprentissage machine ont mis en Ă©vidence la taille et les circonfĂ©rences du buste, du cou, des hanches et du tour de taille comme Ă©tant les meilleures mesures anthropomĂ©triques pour une modĂ©lisation 3D des surfaces corporelles. Les modĂšles 3D des sujets saints modĂ©lisĂ©s Ă  partir de 3 Ă  4 mesures anthropomĂ©triques ont montrĂ© une gĂ©omĂ©trie proche de celle des scans 3D avec une distance d’erreur moyenne de 1.1 cm ± 0.4 et une distance maximale moyenne de 7.4cm ± 1.1. La contribution de ce projet est de rĂ©duire Ă  terme les complications mĂ©dicales et chirurgicales des grands brĂ»lĂ©s en diminuant l’erreur d’estimation du %TBSA. Ainsi, il est possible d’amĂ©liorer les chances de survie du patient et de son pronostic par la personnalisation de sa prise en charge et de son pronostic

    Mesure d’un champ de masse volumique par Background Oriented Schlieren 3D. Étude d’un dispositif expĂ©rimental et des mĂ©thodes de traitement pour la rĂ©solution du problĂšme inverse

    Get PDF
    Ces travaux consistent à mettre en place un dispositif expérimental BOS3D permettant la reconstruction du champ de masse volumique instantané d'un écoulement ainsi qu'à développer un algorithme de reconstruction permettant une mise à disposition rapide des résultats ainsi qu'une robustesse liée à un nombre faible de points de vue. La démarche a consisté dans un premier temps à développer un algorithme de reconstruction BOS3D applicable à toutes les configurations expérimentales. Pour cela, le problÚme direct a été reformulé sous forme algébrique et un critÚre a été défini. Cette formulation ainsi que les équations issues des méthodes d'optimisation nécessaires à la minimisation du critÚre ont été parallélisés pour permettre une implémentation sur GPU. Cet algorithme a ensuite été testé sur des cas de références issus de calcul numérique afin de vérifier si le champ reconstruit par l'algorithme était en accord avec celui fourni. Dans ce cadre, nous avons développé un outil permettant de simuler numériquement une BOS3D afin d'obtenir les champs de déviation associées aux écoulements numériques. Ces champs de déviation ont ensuite été fournis comme entrée au code et nous ont permis d'étudier la sensibilité de notre algorithme à de nombreux paramÚtres tels que le bruit sur les données, les erreurs de calibration, la discrétisation du maillage... Ensuite, afin de tester notre code sur des données réelles nous avons mis en place un banc expérimental BOS3D pour la reconstruction du champ de masse volumique instantané. Cela a nécessité l'étude d'un nouveau moyen de mesure, faisant appel à des techniques de calibrage multi-caméras et de nouvelles stratégies d'illumination su fond. Finalement les données issues de l'expérimentation ont été utilisées comme entrée de notre algorithme afin de valider son comportement sur données réelles

    SystÚme microfluidique d'analyse sanguine en temps réel pour l'imagerie moléculaire chez le petit animal

    Get PDF
    De nouveaux radiotraceurs sont continuellement dĂ©veloppĂ©s pour amĂ©liorer l'efficacitĂ© diagnostique en imagerie molĂ©culaire, principalement en tomographie d'Ă©mission par positrons (TEP) et en tomographie d'Ă©mission monophotonique (TEM) dans les domaines de l'oncologie, de la cardiologie et de la neurologie. Avant de pouvoir ĂȘtre utilisĂ©s chez les humains, ces radiotraceurs doivent ĂȘtre caractĂ©risĂ©s chez les petits animaux, principalement les rats et les souris. Pour cela, de nombreux Ă©chantillons sanguins doivent ĂȘtre prĂ©levĂ©s et analysĂ©s (mesure de radioactivitĂ©, sĂ©paration de plasma, sĂ©paration d'espĂšces chimiques), ce qui reprĂ©sente un dĂ©fi majeur chez les rongeurs Ă  cause de leur trĂšs faible volume sanguin (-1,4 ml pour une souris). Des solutions fournissant une analyse partielle sont prĂ©sentĂ©es dans la littĂ©rature, mais aucune ne permet d'effectuer toutes les opĂ©rations dans un mĂȘme systĂšme. Les prĂ©sents travaux de recherche s'insĂšrent dans le contexte global d'un projet visant Ă  dĂ©velopper un systĂšme microfluidique d'analyse sanguine complĂšte en temps rĂ©el pour la caractĂ©risation des nouveaux radiotraceurs TEP et TEM. Un cahier des charges a tout d'abord Ă©tĂ© Ă©tabli et a permis de fixer des critĂšres quantitatifs et qualitatifs Ă  respecter pour chacune des fonctions de la puce. La fonction de dĂ©tection microfluidique a ensuite Ă©tĂ© dĂ©veloppĂ©e. Un Ă©tat de l'art des travaux ayant dĂ©jĂ  combinĂ© la microfluidique et la dĂ©tection de radioactivitĂ© a permis de souligner qu'aucune solution existante ne rĂ©pondait aux critĂšres du projet. Parmi les diffĂ©rentes technologies disponibles, des microcanaux en rĂ©sine KMPR fabriquĂ©s sur des dĂ©tecteurs semiconducteurs de type p-i-n ont Ă©tĂ© identifiĂ©s comme une solution technologique pour le projet. Des dĂ©tecteurs p-i-n ont ensuite Ă©tĂ© fabriquĂ©s en utilisant un procĂ©dĂ© standard. Les performances encourageantes obtenues ont menĂ© Ă  initier un projet de maĂźtrise pour leur optimisation. En parallĂšle, les travaux ont Ă©tĂ© poursuivis avec des dĂ©tecteurs du commerce sous forme de gaufres non dĂ©coupĂ©es. Un premier dispositif intĂ©grant des canaux en KMPR sur ces gaufres a permis de valider le concept dĂ©montrant le grand potentiel de ces choix technologiques et incitant Ă  poursuivre les dĂ©veloppements dans cette voie, notamment en envisageant des expĂ©riences animales. L'utilisation prolongĂ©e des canaux avec du sang non diluĂ© est cependant particuliĂšrement exigeante pour les matĂ©riaux artificiels. Une passivation Ă  l'albumine a permis d'augmenter considĂ©rablement la compatibilitĂ© sanguine de la rĂ©sine KMPR. Le concept initial, incluant la passivation des canaux, a ensuite Ă©tĂ© optimisĂ© et intĂ©grĂ© dans un systĂšme de mesure complet avec toute l'Ă©lectronique et l'informatique de contrĂŽle. Le systĂšme final a Ă©tĂ© validĂ© chez le petit animal avec un radiotraceur connu. Ces travaux ont donnĂ© lieu Ă  la premiĂšre dĂ©monstration d'un dĂ©tecteur microfluidique de haute efficacitĂ© pour la TEP et la TEM. Cette premiĂšre brique d'un projet plus global est dĂ©jĂ  un outil innovant en soi qui permettra d'augmenter l'efficacitĂ© du dĂ©veloppement d'outils diagnostiques plus spĂ©cifiques principalement pour l'oncologie, la cardiologie et la neurologie

    Sphincter artificiel contrÎlé et alimenté en énergie sans fil

    Get PDF
    RÉSUMÉ L’incontinence urinaire est un trouble qui touche aussi bien les hommes que les femmes, les personnes ĂągĂ©es aussi bien que les jeunes. N’ayant pas une dĂ©finition universellement admise, son incidence varie considĂ©rablement. Être incontinent implique l’impossibilitĂ© pour la personne de se retenir. Cela la place dans des situations trĂšs inconfortables. AppelĂ©e aussi « La maladie de la honte », elle a des rĂ©percussions psychologiques et sociales trĂšs importantes. Elle peut limiter les activitĂ©s physiques et perturber la vie sexuelle et professionnelle. GrĂące Ă  la mĂ©decine moderne l’incontinence est soignable. Elle est initialement traitĂ©e avec la mĂ©dication, l’hygiĂšne de vie, ou la rĂ©Ă©ducation. Mais si ces mesures sont insuffisantes, l’urologue fait le plus souvent appel aux dispositifs implantables tels que l’AMS 800ℱ. En l’état actuel des connaissances, l’implantation du sphincter urĂ©tral artificiel AMS 800ℱ est en effet le traitement standard pour l’incontinence urinaire sĂ©vĂšre (Gold standard) due Ă  une insuffisance sphinctĂ©rienne. Le dispositif en question est un implant hydromĂ©canique mimant le comportement d’un sphincter urĂ©tĂ©ral sain. Il exerce une pression constante sur l’urĂštre du patient pour fermer sa lumiĂšre et garder l’urine dans la vessie. Pour uriner, le patient contrĂŽle l’ouverture de son urĂštre en pressant sur une pompe manuelle situĂ©e dans le scrotum ou la Labia Majora. MalgrĂ© le principe simple et l’efficacitĂ© de cet implant, les Ă©tudes cliniques lui attribuent certaines limitations. Certains patients Ă  dextĂ©ritĂ© rĂ©duite (Parkinsoniens, ĂągĂ©s, obĂšses, etc.) ont des difficultĂ©s Ă  localiser et actionner la pompe manuelle. Par ailleurs et bien que faisable chez les femmes, l’implantation de l’AMS 800 est compliquĂ©e. La pression constante appliquĂ©e sur l’urĂštre provoque l’atrophie et l’érosion. La pompe est sujette Ă  des pannes mĂ©caniques. Ces Ă©vĂšnements peuvent engendrer le retour de l’incontinence, affecter la qualitĂ© de vie du patient, et nĂ©cessiter une chirurgie de rĂ©vision. L’objectif de nos recherches est de dĂ©velopper une nouvelle gĂ©nĂ©ration de sphincters artificiels intelligents, dans le but de corriger ces limitations, et dĂ©velopper les capacitĂ©s des sphincters actuels dont la conception est ĂągĂ©e de plus de 30 ans.---------- ABSTRACT Urinary incontinence is a complication that affects both men and women, the elderly as well as young people. Without a universally accepted definition, its incidence varies widely. Being incontinent implies the impossibility for the patient to control his micturition, which makes him very uncomfortable. Also called "the shameful disease", urinary incontinence has negative psychological and social impacts. It may limit physical activities and disrupt sexual and professional life. Thanks to modern medicine, urinary incontinence is treatable. It is initially treated with medication, lifestyle changes, or rehabilitation. If these measures are insufficient, the urologist recommends the use of implantable devices such as the AMS 800 ℱ. In the current state of knowledge, the implantation of the artificial urinary sphincter AMS 800 ℱ is the gold standard treatment for severe urinary incontinence due to intrinsic sphincter deficiency. This device is a hydro-mechanical implant imitating the behavior of a healthy urethral sphincter. It exerts a constant pressure on the patient's urethra to close it, and keeps urine in the bladder. To urinate, the patient opens his urethra by pressing a manual pump located in the scrotum or Labia Majora. Despite the simple mechanism and the effectiveness of this implant, clinical studies report certain limitations. Some patients with limited dexterity (Parkinson, aged, obese, etc.) have difficulties to locate and operate the manual pump. Furthermore and although it is feasible in women, the implantation of the AMS 800 is complicated. The constant pressure applied on the urethra causes atrophy and erosion. The pump is subject to mechanical failure. These events can cause the return of incontinence, affect the patient's quality of life, and may require revision surgery. The aim of our research is to develop a new generation of intelligent artificial sphincters, in order to correct the limitations and extend the capabilities of current sphincters that are over 30 years old. Our hypothesis assumes that, an artificial urinary sphincter equipped with embedded electronics and precise micro-actuators allows the remote control of the implant and the variation of the pressure exerted on the urethra

    Simulation numérique directe et analyse des transferts de chaleur dans les lits de particules fixes et mobiles

    Get PDF
    Ces travaux de recherche s'intéressent à la caractérisation des transferts thermiques dans les milieux fluide-particules, et en particulier, les lits fluidisés au sein desquels un solide divisé est mis en suspension par un fluide. La grande diversité d'échelles spatiales et temporelles dans ces procédés nécessite d'étudier les interactions hydrodynamiques, thermiques et/ou chimiques entre les particules et le fluide à l'aide d'une approche multi-échelles. Une étude des transferts thermiques dans des lits fixes puis fluidisés, est réalisée à deux échelles : locale (Particle Resolved Simulation) et moyennée (Discrete Element Method-Computional Fluids Dynamics). L'étude PRS permet de caractériser les couplages locaux des transferts thermiques entre particules ainsi que la dynamique de ces transferts dans les configurations fluidisées. Une étude comparative entre les échelles met en évidence les limites du modÚle DEM-CFD à capter les fluctuations des transferts thermiques observées dans les simulations PRS. Dans un dernier temps, les fermetures du modÚle DEM-CFD sont améliorées de maniÚre à réintroduire les fluctuations perdues par le changement d'échelles

    Mesure d’un champ de masse volumique par Background Oriented Schlieren 3D. Étude d’un dispositif expĂ©rimental et des mĂ©thodes de traitement pour la rĂ©solution du problĂšme inverse

    Get PDF
    Ces travaux consistent à mettre en place un dispositif expérimental BOS3D permettant la reconstruction du champ de masse volumique instantané d'un écoulement ainsi qu'à développer un algorithme de reconstruction permettant une mise à disposition rapide des résultats ainsi qu'une robustesse liée à un nombre faible de points de vue. La démarche a consisté dans un premier temps à développer un algorithme de reconstruction BOS3D applicable à toutes les configurations expérimentales. Pour cela, le problÚme direct a été reformulé sous forme algébrique et un critÚre a été défini. Cette formulation ainsi que les équations issues des méthodes d'optimisation nécessaires à la minimisation du critÚre ont été parallélisés pour permettre une implémentation sur GPU. Cet algorithme a ensuite été testé sur des cas de références issus de calcul numérique afin de vérifier si le champ reconstruit par l'algorithme était en accord avec celui fourni. Dans ce cadre, nous avons développé un outil permettant de simuler numériquement une BOS3D afin d'obtenir les champs de déviation associées aux écoulements numériques. Ces champs de déviation ont ensuite été fournis comme entrée au code et nous ont permis d'étudier la sensibilité de notre algorithme à de nombreux paramÚtres tels que le bruit sur les données, les erreurs de calibration, la discrétisation du maillage... Ensuite, afin de tester notre code sur des données réelles nous avons mis en place un banc expérimental BOS3D pour la reconstruction du champ de masse volumique instantané. Cela a nécessité l'étude d'un nouveau moyen de mesure, faisant appel à des techniques de calibrage multi-caméras et de nouvelles stratégies d'illumination su fond. Finalement les données issues de l'expérimentation ont été utilisées comme entrée de notre algorithme afin de valider son comportement sur données réelles. ABSTRACT : This thesis consists in implementing a scientific experimental apparatus BOS3D (Background Oriented Schlieren 3D) at ONERA for the reconstruction of the density field of instantaneous flow and to develop a robust reconstruction algorithm allowing rapid provision of results considering a small number of views . First, we have developed a reconstruction algorithm BOS3D applicable to all experimental configurations . To do so, the direct problem, that is to say, the equation of the light deflection through a medium of inhomogeneous optical index was reformulated in algebraic form. experiment is then defined. This formulation and the equations resulting from optimization methods necessary for the minimization of the criterion have been parallelized to allow implementation on GPU. This algorithm was then tested with reference cases from numerical calculation to check whether the reconstructed field was consistent with the one provided. In this context, we developed a tool for simulating a virtual BOS3D to obtain the deflection fields associated with numerical flows. These deflection fields were then provided as input to the code of reconstruction and allowed us to study the sensitivity of our algorithm to many parameters such as noise on the data, mesh discretization, the type of regularization and positioning of the cameras. In parallel with the study of the reconstruction method by simulation, we have gained experience in the effective implementation of the BOS technique in experimental facilities, participating in several test campaigns . This has enabled us to contribute to the design and implementation of experimental apparatus dedicated to the BOS technique. The main result of this work is the realization of the experimental apparatus BOS3D in DMAE, which is designed to reconstruct instantaneous density fields. These experimental developments ultimately allow us to obtain 3D reconstructions of instantaneous and mean density fields from experimental data. In addition , analysis of the behavior of the BOS3D numerical method is proposed according to the nature of the observed flows and the acquisition configuratio
    corecore