198 research outputs found

    The importance of elementary sexuality education

    Get PDF
    Includes bibliographical references

    "Le toucher pour voir et se développer" ou comment la personne sourdaveugle congénitale se développe-t-elle dans son quotidien

    Get PDF
    Ce travail de mémoire porte sur la relation entre l’éducateur social et la personne sourdaveugle congénitale. Je me suis penché sur le développement de cette dernière dans son quotidien afin de mettre en évidence les savoir-être et savoir-faire nécessaires à la prise en charge de cette population. La surdicécité est un double handicap sensoriel rare et ce rapport permettra au lecteur, je le souhaite, de découvrir cette population très spécifique. Trop peu d’ouvrages traitent de ce double handicap, pourtant si intéressant. Habituellement pris en charge par des institutions spécialisées dans le handicap mental, il me semble important de mettre en lumière cette population afin d’éviter d’enfermer davantage les personnes atteinte de surdicécité

    Détection de sources quasi-ponctuelles dans des champs de données massifs

    Get PDF
    Detecting the faintest galaxies in the hyperspectral MUSE data is particularly challenging because they have a small spatial extension, a very sparse spectrum that contains only one narrow emission line, which position in the spectral range is unknown. Moreover, their signal-to-noise ratio are very low. These galaxies are modeled as quasi point sources in the three dimensions of the data cube. We propose a method for the detection of a galaxy configuration based on a marked point process in a nonparametric Bayesian framework. A galaxy is modeled by a point (its position in the spatial domain), and marks (geometrical, spectral features) are added to transform a point into an object. These processes yield a natural sparse representation of massive data (300 x 300 x 3600 pixels). The fully Bayesian framework leads to a general and robust algorithm where the parameters of the objects are estimated in a fully data-driven way. Preprocessing strategies are drawn to tackle the massive dimensions of the data and the complexity of the detection problem, they allow to reduce the exploration of the data to areas that probably contain sources. Multiple testing approaches have been proposed to build proposition map. This map is also used to define the intensity of the point process, textit{i.e.} it describes the probability density function of the point process. It also gives a global error control criterion for the detection. The performance of the proposed algorithm is illustrated on synthetic data and real hyperspectral data acquired by the MUSE instrument for young galaxy detection.Dans cette thèse, nous nous sommes intéressés à la détection de galaxies lointaines dans les données hyperspectrales MUSE. Ces galaxies, en particulier, sont difficiles à observer, elles sont spatialement peu étendues du fait de leur distance, leur spectre est composé d'une seule raie d'émission dont la position est inconnue et dépend de la distance de la galaxie, et elles présentent un rapport signal-à-bruit très faible. Ces galaxies lointaines peuvent être considérées comme des sources quasi-ponctuelles dans les trois dimensions du cube. Il existe peu de méthodes dans la littérature qui permettent de détecter des sources dans des données en trois dimensions. L'approche proposée dans cette thèse repose sur la modélisation de la configuration de galaxies par un processus ponctuel marqué. Ceci consiste à représenter la position des galaxies comme une configuration de points auxquels nous ajoutons des caractéristiques géométriques, spectrales, etc, qui transforment un point en objet. Cette approche présente l'avantage d'avoir une représentation mathématique proche du phénomène physique et permet de s'affranchir des approches pixelliques qui sont pénalisées par les dimensions conséquentes des données (300 x 300 x 3600 pixels). La détection des galaxies et l'estimation de leurs caractéristiques spatiales, spectrales ou d'intensité sont réalisées dans un cadre entièrement bayésien, ce qui conduit à un algorithme générique et robuste, où tous les paramètres sont estimés sur la base des seules données observées, la détection des objets d'intérêt étant effectuée conjointement.La dimension des données et la difficulté du problème de détection nous ont conduit à envisager une phase de prétraitement des données visant à définir des zones de recherche dans le cube. Des approches de type tests multiples permettent de construire des cartes de proposition des objets. La détection bayésienne est guidée par ces cartes de pré-détection (définition de la fonction d'intensité du processus ponctuel marqué), la proposition des objets est réalisée sur les pixels sélectionnés sur ces cartes. La qualité de la détection peut être caractérisée par un critère de contrôle des erreurs.L'ensemble des traitements développés au cours de cette thèse a été validé sur des données synthétiques, et appliqué ensuite à un jeu de données réelles acquises par MUSE suite à sa mise en service en 2014. L'analyse de la détection obtenue est présentée dans le manuscrit

    Nonparametric Bayesian extraction of object configurations in massive data

    No full text
    International audienceThis study presents an unsupervised method for detection of configurations of objects based on a point process in a nonparametric Bayesian framework. This is of interest as the model presented here has a number of parameters that increases with the number of objects detected. The marked point process yields a natural sparse representation of the object configuration, even in massive data fields. However, Bayesian methods can lead to the evaluation of some densities that raise computational issues, due to the huge number of detected objects. We have developed an iterative update of these densities when changes in the object configurations are made, which allows the computational cost to be reduced. The performance of the proposed algorithm is illustrated on synthetic data and very challenging quasi-real hyperspectral data for young galaxy detection

    Contrôle des erreurs pour la détection d'événements rares et faibles dans des champs de données massifs

    No full text
    National audienceIn this paper, we address the general issue of detecting rare and weak signatures in very noisy data. Multiple hypotheses testing approaches can be used to extract a list of components of the data that are likely to be contaminated by a source while controlling a global error criterion. However most of efficients methods available in the literature stand for independent tests, or require specific dependency hypotheses. Based on the work of Benjamini and Yekutieli [1], we show that under some classical positivity assumptions, the Benjamini-Hochberg procedure for False Discovery Rate (FDR) [2] control can be directly applied to the statistics produced by a very common tool in signal and image processing that introduces dependency: the matched filter.Nous nous intéressons à la détection d'événements rares et de faible intensité dans des données massives bruitées. Les approches par tests multiples d'hypothèses peuvent être utilisées pour extraire une liste d'échantillons susceptibles de contenir de l'information tout en contrôlant un critère d'erreurs de détection global. Dans la littérature, la plupart de ces approches ne sont valides que pour des tests indépendants, ou sous des hypothèses particulières de dépendance. Nous nous proposons de montrer, en étendant les travaux de Benjamini et Yekutieli [1], que sous certaines hypothèses, il est cependant possible d'appliquer la procédure de contrôle du taux de fausses découverte (FDR) de Benjamini-Hochberg [2] sur une statistique de filtrage adapté très utilisée en traitement du signal et des images

    Error control for the detection of rare and weak signatures in massive data

    No full text
    International audienceIn this paper, we address the general issue of detecting rare and weak signatures in very noisy data. Multiple hypotheses testing approaches can be used to extract a list of components of the data that are likely to be contaminated by a source while controlling a global error criterion. However most of efficients methods available in the literature are derived for independent tests. Based on the work of Benjamini and Yekutieli [1], we show that under some classical positiv-ity assumptions, the Benjamini-Hochberg procedure for False Discovery Rate (FDR) control can be directly applied to the result produced by a very common tool in signal and image processing: the matched filter. This shows that despite the dependency structure between the components of the matched filter output, the Benjamini-Hochberg procedure still guarantee the FDR control. This is illustrated on both synthetic and real data

    Komplekse liv. Patientinddragelse som vej til et bedre hverdagsliv for multisyge?

    Get PDF
    Med udgangspunkt i tre cases fra et feltarbejde blandt mennesker med multisygdom beskriver forfatterne en række temaer i informanternes hverdagsliv - social identitet, nære relationer og sygdomsforståelse - som vigtige for forståelse af multisyges oplevelse af kompleksitet i sygdomsforløb. I artiklen præsenteres data, der peger i retning af, at hverdagsliv har væsentlig indflydelse på patienternes prioriteringer af behandling og egenomsorg. Der argumenteres for, at særligt multisyge patienter har brug for at blive inddraget i beslutninger om behandling og pleje, fordi kompleksiteten af deres sygdomsforløb påvirker hverdagen i betydelig grad

    SELFI: an object-based, Bayesian method for faint emission line source detection in MUSE deep field data cubes

    Get PDF
    International audienceWe present SELFI, the Source Emission Line FInder, a new Bayesian method optimized for detection of faint galaxies in Multi Unit Spectroscopic Explorer (MUSE) deep fields. MUSE is the new panoramic integral field spectrograph at the Very Large Telescope (VLT) that has unique capabilities for spectroscopic investigation of the deep sky. It has provided data cubes with 324 million voxels over a single 1 arcmin2 field of view. To address the challenge of faint-galaxy detection in these large data cubes, we developed a new method that processes 3D data either for modeling or for estimation and extraction of source configurations. This object-based approach yields a natural sparse representation of the sources in massive data fields, such as MUSE data cubes. In the Bayesian framework, the parameters that describe the observed sources are considered random variables. The Bayesian model leads to a general and robust algorithm where the parameters are estimated in a fully data-driven way. This detection algorithm was applied to the MUSE observation of Hubble Deep Field-South. With 27 h total integration time, these observations provide a catalog of 189 sources of various categories and with secured redshift. The algorithm retrieved 91% of the galaxies with only 9% false detection. This method also allowed the discovery of three new Lyα emitters and one [OII] emitter, all without any Hubble Space Telescope counterpart. We analyzed the reasons for failure for some targets, and found that the most important limitation of the method is when faint sources are located in the vicinity of bright spatially resolved galaxies that cannot be approximated by the Sérsic elliptical profile

    Expanded cardiac rehabilitation in socially vulnerable patients with myocardial infarction:a 10-year follow-up study focusing on mortality and non-fatal events

    Get PDF
    ObjectiveCardiac rehabilitation (CR) has been shown to reduce cardiovascular risk. A research project performed at a university hospital in Denmark offered an expanded CR intervention to socially vulnerable patients. One-year follow-up showed significant improvements concerning medicine compliance, lipid profile, blood pressure and body mass index when compared with socially vulnerable patients receiving standard CR. The aim of the study was to perform a long-term follow-up on the socially differentiated CR intervention and examine the impact of the intervention on all-cause mortality, cardiovascular mortality, non-fatal recurrent events and major cardiac events (MACE) 10 years after.DesignProspective cohort study.SettingThe cardiac ward at a university hospital in Denmark from 2000 to 2004.Participants379 patients aged &lt;70 years admitted with first episode myocardial infarction (MI). The patients were defined as socially vulnerable or non-socially vulnerable according to their educational level and their social network. A complete follow-up was achieved.InterventionA socially differentiated CR intervention. The intervention consisted of standard CR and additionally a longer phase II course, more consultations, telephone follow-up and a better handover to phase III CR in the municipal sector, in general practice and in the patient association.Main outcome measuresAll-cause mortality, cardiovascular mortality, non-fatal recurrent events and MACE.ResultsThere was no significant difference in all-cause mortality (OR: 1.29, 95% CI 0.58 to 2,89), cardiovascular mortality (OR: 0.80, 95% CI 0.31 to 2.09), non-fatal recurrent events (OR:1.62, 95% CI 0.67 to 3.92) or MACE (OR: 1.31, 95% CI 0.53 to 2.42) measured at 10-year follow-up when comparing the expanded CR intervention to standard CR.ConclusionsDespite the significant results of the socially differentiated CR intervention at 1-year follow-up, no long-term effects were seen regarding the main outcome measures at 10-year follow-up. Future research should focus on why it is not possible to lower the mortality and morbidity significantly among socially vulnerable patients admitted with first episode MI.</jats:sec
    • …
    corecore