319 research outputs found
Modélisation du gonflement radiolytique d'enrobés bitumineux
The aim of this PhD thesis is to predict the swelling of bitumen barrels in which radioactive salts are mixed. The bitumen exposed to radioactivity undergoes a chemical reaction: the radiolys. This implies a generation of dihydrogen. The created is solubilized until the concentration reaches a limit value which is called saturation. Over this limit nucleation of bubbles is observed. Then they will grow thank to the contribution of the gas generated by radiolys and they will be submitted to Archimede's principle so that they will rise in the fluid. The swelling is the result of the competition between generation and evacuation of gas. A model has been built to describe theevolution of a bubble population. Because of it is not possible to solve it analitically, a numerical program was developed. The results show that an increase of the fluid viscosity, the gas generation or the container height lead to an increase of the swelling and that an increase of the diffusioncoefficient contributes to a decrease of the swelling. In the particular case of a yield stress fluid, the behavior of the bubble population is modified and the evacuation of gas is done with several shots, at the opposite of the case of a Newtonian fluid for which a stationary evacuation is reached.L'objectif de ce travail est de prédire le gonflement de fûts d'enrobés bitumineux contenant des déchets radioactifs en condition d'entreposage, de transport et de stockage. L'incorporation de radionucléides dans du bitume provoque en effet sa radiolyse et du dihydrogène est ainsi généré dans le matériau. Ce gaz est solubilisé dans la matrice jusqu'à ce que sa concentration atteigne une valeur limite, la saturation. Au-delà de celle-ci, un mécanisme de germination a lieu : des bulles sont formées. Elles vont par la suite croître grâce à l'apport de gaz par radiolyse et migrer sous l'effet de la poussée d'Archimède. Le gonflement du matériau résulte alors de la compétition entre création et évacuation de gaz. Un modèle a été construit pour décrire l'évolution d'une population de bulles. Sa résolution analytique n'étant pas possible, un code numérique a été développé. Les résultats montrent qu'une augmentation de la viscosité du fluide, du terme source de gaz apporté par radiolyse ou de la hauteur du récipient induisent une augmentation du gonflement et qu'une augmentation du coefficient de diffusion du gaz dans la matrice diminue le gonflement. Lorsque le fluide présente un seuil d'écoulement, le comportement de la population de bulles est modifié et l'évacuation de gaz par migration des bulles se fait par à-coups, contrairement au cas d'un fluide newtonien où une évacuation stationnaire est atteinte. Cette dernière a enfin servi à l'optimisation des conditions opératoires
Un modèle de cinétique d'évolution de populations de bulles dans un fluide à seuil
International audienceThe context of this study is to predict the swelling of bitumen drums in which radioactive salts are mixed (60 wt% of bitumen and 40 wt% of salts). Radioactivity generates uniform volume production of hydrogen by radiolysis of bitumen chains. The creation of gas occurs on very large time scales (more than a hundred years), hence the need to provide model in order to predict the swelling. It has been shown that bitumen is a yield stress fluid. Therefore this work proposes to study the influence of a continuous gas generation and a yield stress on the kinetic evolution of a bubble population. Usually, when a gas is dissolved beyond its solubility limit without yield stress or gas creation, one observes a nucleation-growth-ripening scenario (growth of large bubbles to the detriment of small ones). It selects a distribution of large bubbles over long times, independently of the initial distribution of nuclei. Our work shows that in some cases the gas creation competes with the ripening kinetics and the yield stress can make the bubble population bimodal during its evolution.Le contexte de cette étude est de décrire les processus physico-chimiques élémentaires de base conduisant au gonflement d’enrobés de bitume (suspensions de sels dans une matrice bitume) dans lequel sont conditionnés des sels de coprécipitation de radionucléides. La radioactivité génère une production volumique uniforme de dihydrogène par radiolyse des chaînes de bitume. Ce taux de création de gaz perdure sur des échelles de temps très grandes (plus de cent ans), bien que décroissant au cours du temps. L’étude scientifique vise à conforter les modèles actuels de prédiction du gonflement sous radiolyse des enrobés bitume. Il a été montré que les enrobés de bitume sont des fluides à seuil. Ces travaux proposent donc d'aborder l'influence d’une génération continue de gaz (appelée terme source dans la suite de cet article) et d’un seuil d’écoulement sur la cinétique d'évolution d'une population de bulles. Classiquement, pour un gaz dissous au delà de sa limite de solubilité et en l’absence de seuil et de terme source, on observe un scénario de germination-croissance-mûrissement (croissance des grosses bulles au détriment des petites) qui sélectionne aux temps longs une distribution de grosses bulles, indépendante de la distribution initiale de germes. Nos travaux montrent qu’il existe des régimes où le terme source entre en compétition avec la cinétique de mûrissement et où le seuil d’écoulement peut étaler ou rendre bidisperse la distribution de taille de bulles au cours de son évolution
Mapping a lower limit on the mass fraction of the cold neutral medium using Fourier transformed HI 21cm emission line spectra: Application to the DRAO Deep Field from DHIGLS and the HI4PI survey
We develop a new method for spatially mapping a lower limit on the mass
fraction of the cold neutral medium by analyzing the amplitude structure of
, the Fourier transform of , the spectrum of the
brightness temperature of HI 21cm line emission with respect to the radial
velocity . This advances a broader effort exploiting 21cm emission line data
alone (without absorption line data, ) to extract integrated properties
of the multiphase structure of the HI gas and to map each phase separately.
Using toy models, we illustrate the origin of interference patterns seen in
. Building on this, a lower limit on the cold gas mass fraction
is obtained from the amplitude of at high . Tested on a
numerical simulation of thermally bi-stable turbulence, the lower limit from
this method has a strong linear correlation with the "true" cold gas mass
fraction from the simulation for relatively low cold gas mass fraction. At
higher mass fraction, our lower limit is lower than the "true" value, because
of a combination of interference and opacity effects. Comparison with
absorption surveys shows a similar behavior, with a departure from linear
correlation at cm. Application to
the DRAO Deep Field (DF) from DHIGLS reveals a complex network of cold
filaments in the Spider, an important structural property of the thermal
condensation of the HI gas. Application to the HI4PI survey in the velocity
range km/s produces a full sky map of a lower limit on the mass
fraction of the cold neutral medium at 16'.2 resolution. Our new method has the
ability to extract a lower limit on the cold gas mass fraction for massive
amounts of emission line data alone with low computing time and memory,
pointing the way to new approaches suitable for the new generation of radio
interferometers.Comment: 29 pages, 35 figures, Accepted for publication in Ap
Separation of dust emission from the Cosmic Infrared Background in Herschel observations with Wavelet Phase Harmonics
The low brightness dust emission at high Galactic latitude is of interest to
study the interplay between physical processes in shaping the structure of the
interstellar medium (ISM), as well as to statistically characterize dust
emission as a foreground to the Cosmic Microwave Background (CMB). Progress in
this avenue of research have been hampered by the difficulty of separating the
dust emission from the Cosmic Infrared Background (CIB). We demonstrate that
dust and CIB may be effectively separated based on their different structure on
the sky and use the separation to characterize the structure of diffuse dust
emission on angular scales where CIB is a significant component in terms of
power. We use scattering transform statistics, the Wavelet Phase Harmonics
(WPH), to perform a statistical component separation using Herschel SPIRE
observations. This component separation is done only from observational data
using non-Gaussian properties as a lever arm, and is done at a single 250
microns frequency. This method, that we validate on mock data, gives us access
to non-Gaussian statistics of the interstellar dust and an output dust map
essentially free from CIB contamination. Our statistical modelling
characterizes the non-Gaussian structure of the diffuse ISM down to the
smallest scales observed by Herschel. We recover the power-law shape of the
dust power spectrum up to a wavenumber of 2 arcmin where the dust signal
represents 2 percent of the total power. The output dust map reveals coherent
structures at the smallest scales which were hidden by the CIB anisotropies. It
opens new observational perspectives on the formation of structure in the
diffuse ISM which we discuss with reference to past work. We have succeeded to
perform a statistical separation from observational data only at a single
frequency by using non-Gaussian statistics.Comment: Accepted in A&A on October 23, 202
Virtual plaster cast : digital 3D modelling of lion paws and tracks using close-range photogrammetry
The ecological monitoring of threatened species is vital for their survival as it provides
the baselines for conservation, research and management strategies. Wildlife
studies using tracks are controversial mainly due to unreliable recording techniques
limited to two-dimensions (2D). We assess close-range photogrammetry as a lowcost,
rapid, practical and reliable field technique for the digital three-dimensional
(3D) modelling of lion Panthera leo paws and tracks. First, we tested three reconstruction
parameters affecting the 3D model quality. We then compared direct measurements
on the paws and tracks versus the same measurements on their digital
3D models. Finally, we assessed the minimum number of photographs required for
the 3D reconstruction. Masking, auto-calibration and optimization provided higher
reconstruction quality. Paws masked semi-automatically and tracks masked manually
were characterized by a geometric deviation of 0.23 0.18 cm and
0.50 0.33 cm respectively. Unmasked tracks delineated by means of the contour
lines had a geometric deviation of 0.06 0.39 cm. The use of a correction factor
reduced the geometric deviation to 0.03 0.20 cm (pad-masked paws),
0.04 0.35 cm (pad-masked tracks) and 0.01 0.39 cm (unmasked tracks).
Based on the predicted error, the minimum number of photographs required for an
accurate reconstruction is seven (paws) or eight (tracks) photographs. This field
technique, using only a digital camera and a ruler, takes less than one minute to
sample a paw or track. The introduction of the 3D facet provides more realistic
replications of paws and tracks that will enable a better understanding of their
intrinsic properties and variation due to external factors. This advanced recording
technique will permit a refinement of the current methods aiming at identifying
species, age, sex and individual from tracks.National Research Foundation (NRF).http://onlinelibrary.wiley.com/journal/10.1111/(ISSN)1469-79982017-02-28hb2016Mammal Research InstituteZoology and Entomolog
Perception of spatialized vibrotactile impacts in a hand-held tangible for Virtual Reality
International audienceInformative and realistic haptic feedback significantly enhances virtual reality (VR) manipulation. In particular, vibrotactile feedback (VF) can deliver diverse haptic sensations while remaining relatively simple. This has made it a go-to solution for haptics within hand-held controllers and tangible props for VR. However, VF in hand-helds has solely focused on monolithic vibration of the entire hand-held device. Thus, it is not clear to what extent such hand-held devices could support the delivery of spatialized information within the hand. In this paper, we consider a tangible cylindrical handle that allows interaction with virtual objects extending beyond it. This handle is fitted with a pair of vibrotactile actuators with the objective of providing in-hand spatialized cues indicating direction and distance of impacts. We evaluated its capability for rendering spatialized impacts with external virtual objects. Results show that it performs very well for conveying an impact's direction and moderately well for conveying an impact's distance to the user
Medical image computing and computer-aided medical interventions applied to soft tissues. Work in progress in urology
Until recently, Computer-Aided Medical Interventions (CAMI) and Medical
Robotics have focused on rigid and non deformable anatomical structures.
Nowadays, special attention is paid to soft tissues, raising complex issues due
to their mobility and deformation. Mini-invasive digestive surgery was probably
one of the first fields where soft tissues were handled through the development
of simulators, tracking of anatomical structures and specific assistance
robots. However, other clinical domains, for instance urology, are concerned.
Indeed, laparoscopic surgery, new tumour destruction techniques (e.g. HIFU,
radiofrequency, or cryoablation), increasingly early detection of cancer, and
use of interventional and diagnostic imaging modalities, recently opened new
challenges to the urologist and scientists involved in CAMI. This resulted in
the last five years in a very significant increase of research and developments
of computer-aided urology systems. In this paper, we propose a description of
the main problems related to computer-aided diagnostic and therapy of soft
tissues and give a survey of the different types of assistance offered to the
urologist: robotization, image fusion, surgical navigation. Both research
projects and operational industrial systems are discussed
Approches complémentaires pour l'évaluation des dysphonies : bilan méthodologique et perspectives
Autorisation No.3240 : TIPA est la revue du Laboratoire Parole et LangageThis paper describes comparative studies of voice quality assessment based on complementary approaches. The first study was undertaken on 449 speakers (including 391 dysphonic patients) whose voice quality was evaluated in parallel by a perceptual judgment and objective measurements on acoustic and aerodynamic data. Results showed that a non-linear combination of 7 parameters allowed the classification of 82% voice samples in the same grade as the jury. The second study relates to the adaptation of Automatic Speaker Recognition (ASR) techniques to pathological voice assessment. The system designed for this particular task relies on a GMM based approach, which is the state-of-the-art for ASR. Experiments conducted on 80 female voices provide promising results, underlining the interest of such an approach. We benefit from the multiplicity of theses techniques to evaluate the methodological situation which points fundamental differences between these complementary approaches (bottom-up vs. top-down, global vs. analytic). We also discuss some theoretical aspects about relationship between acoustic measurement and perceptual mechanisms which are often forgotten in the performance race.Nous proposons un bilan méthodologique fondé sur différentes expériences effectuées dans notre groupe de travail sur l'évaluation des troubles de la voix. Un premier axe d'étude a mis en parallèle un jugement perceptif de la qualité vocale de 449 participants (incluant 391 patients dysphoniques) avec des mesures instrumentales acoustique et aérodynamique effectuées sur le même groupe. Les résultats montrent que la combinaison de 7 paramètres instrumentaux permettent de classer 82 % des participants dans le même groupe que le jugement perceptif. Le deuxième axe d'étude, complémentaire, concerne l'adaptation de techniques de Reconnaissance Automatique du Locuteur à la catégorisation des dysphonies. Le système développé pour cette tâche est fondé sur une approche à base de GMM. Les expériences conduites sur 80 voix de femmes ont fourni des résultats plus que prometteurs et ont souligné l'intérêt d'une telle approche originale. Nous profiterons de la multiplicité de ces moyens expérimentaux pour faire un point méthodologique qui pointe des différences fondamentales entre ces approches complémentaires (montante vs descendante, globale vs analytique). Nous discuterons aussi d'aspects théoriques notamment sur les relations entre mesures physiques et mécanismes de perception, considérations qui sont souvent mises de côté du fait de la course à la performance
Corpus de parole pathologique, état d'avancement et enjeux méthodologiques
Autorisation No.3015 : TIPA est la revue du Laboratoire Parole et LangageDepuis une quinzaine d'années, l'étude des dysfonctionnements de la voix et de la parole est sortie du simple cadre de la recherche clinique et intéresse les laboratoires de recherche issus des sciences du langage. Par l'observation des dysfonctionnements, les chercheurs SHS confrontent les résultats de leurs recherches établies sur des corpus de parole "normale" à des situations d'élocution pathologique. En effet, le dysfonctionnement aide à comprendre le fonctionnement. Ces situations permettent un enrichissement des connaissances entre les communautés de scientifiques du langage, des cliniciens mais aussi de chercheurs issus des STIC. Actuellement, les études sur le dysfonctionnement de la voix et de la parole souffrent cruellement d'une dispersion et hétérogénéité des données. Souvent, les analyses portent sur quelques locuteurs enregistrés pour les besoins ponctuels d'une étude, ce qui affaiblit considérablement la portée des résultats et permet mal de généraliser les conclusions. L'enregistrement des données et le stockage sont souvent effectués par du personnel non formé à certains aspects techniques de la prise et du formatage de données, ce qui peut entraîner une impossibilité de diffusion. A cela s'ajoute la perte quasi systématique des méta-données, ce qui explique souvent la difficulté de faire émerger des résultats clairs car l'homogénéité des populations testées devient totalement opaque.Notre projet s'inscrit dans un dessein plus vaste qui vise à décrire et évaluer les dysfonctionnements de la voix et de la parole, ceci dans une optique fédérative et multidisciplinaire, en axant notre effort, dans un premier temps, sur la mise à disposition de masses de données organisées, de méthodes d'analyse et d'outils mutualisés. Pour cela, il est nécessaire d'obtenir un consensus permettant de proposer des recommandations et un mode de fonctionnement assurant un partage effectif des données. Cela implique la rédaction d'un protocole général, de conventions et de directions d'analyse. Le principe n'est pas d'imposer une façon de faire unique mais d'offrir un cadre de travail permettant d'assurer une compatibilité des données recueillies de parole pathologique, des méta-données et enrichissements associés.La deuxième étape consiste à mettre en place et développer un système d'interrogation, d'extraction, de classification des données de parole pathologique. Cela implique l'élaboration d'une organisation en base de données associant informations cliniques et enregistrements sonores et physiologiques, ceci dans une optique multicentrique capable d'intégrer différentes informations variant selon les équipes de recherche. Cette base devra permettre de centraliser et redéployer les informations provenant de divers laboratoires de recherche et centres cliniques impliqués dans l'étude des dysfonctionnements de la voix et de la parole. La consultation de la base doit être rendue publique par Internet avec divers niveaux d'accessibilité en restreignant l'accès selon des modalités à définir entre les partenaires du projet et selon l'ouverture prévue par la suite. De plus, il nous paraît important de fournir un ensemble d'outils d'analyse de ce type de corpus. Si certains outils sont disponibles sous la forme de dispositifs informatisés de tests de perception ou de logiciels d'analyse « classique » du signal, il nous parait intéressant d'introduire des systèmes de traitement issus de la reconnaissance automatique de la parole et du locuteur afin d'être en mesure d'évaluer une grande masse de données et d'obtenir des modèles et résultats statistiquement conséquents. Enfin, il nous paraît intéressant, dans le cadre de ce projet, de proposer un sous-ensemble de données représentatives des troubles de la communication parlée, ceci dans une optique pédagogique qui permettrait de fournir un support aux enseignements à la fois dans les cursus cliniques comme les écoles d'orthophonie mais aussi en sciences du langage ayant des filières « dysfonctionnements ».Notre objectif est d'aboutir dans ce sens au premier corpus conséquent de parole pathologique (dysphonies et dysarthries) de langue française, ainsi qu'à une mise à disposition d'outils communs adaptés à ce type de données. Cela ouvrirait la portée scientifique des études portant sur les dysfonctionnements de la voix et de la parole.Il faut aussi souligner la visée sociale de ce type de projet. Nous touchons au domaine de la santé. Notre projet contribuerait fortement à améliorer ce problème de communication du malade, relevant de la santé publique. Il est clair qu'une meilleure connaissance et évaluation des troubles de la voix et de la parole aurait un impact direct sur la prise en charge des personnes atteintes de ces troubles, celles-ci souffrant bien souvent d'une rupture sociale liée à la dégradation de leur capacité de communication avec leur entourage.Enfin, il faut signaler que la mise à disposition d'un tel type de corpus est d'un grand intérêt pour les laboratoires issus des technologies de l'information et de la communication. En effet, certaines équipes, qui travaillent par exemple sur la reconnaissance automatique de la parole ou du locuteur, manquent totalement de données organisées pour tester leurs systèmes dans des situations atypiques ou encore, pour adapter leurs méthodes aux situations de dysfonctionnement dans le but de fournir des systèmes de classification automatiques dédiés à l'évaluation de la qualité vocale ; le but final de ces travaux étant de fournir une aide au diagnostic et au suivi des dysfonctionnements
- …