240 research outputs found

    SELFI: an object-based, Bayesian method for faint emission line source detection in MUSE deep field data cubes

    Get PDF
    International audienceWe present SELFI, the Source Emission Line FInder, a new Bayesian method optimized for detection of faint galaxies in Multi Unit Spectroscopic Explorer (MUSE) deep fields. MUSE is the new panoramic integral field spectrograph at the Very Large Telescope (VLT) that has unique capabilities for spectroscopic investigation of the deep sky. It has provided data cubes with 324 million voxels over a single 1 arcmin2 field of view. To address the challenge of faint-galaxy detection in these large data cubes, we developed a new method that processes 3D data either for modeling or for estimation and extraction of source configurations. This object-based approach yields a natural sparse representation of the sources in massive data fields, such as MUSE data cubes. In the Bayesian framework, the parameters that describe the observed sources are considered random variables. The Bayesian model leads to a general and robust algorithm where the parameters are estimated in a fully data-driven way. This detection algorithm was applied to the MUSE observation of Hubble Deep Field-South. With 27 h total integration time, these observations provide a catalog of 189 sources of various categories and with secured redshift. The algorithm retrieved 91% of the galaxies with only 9% false detection. This method also allowed the discovery of three new Lyα emitters and one [OII] emitter, all without any Hubble Space Telescope counterpart. We analyzed the reasons for failure for some targets, and found that the most important limitation of the method is when faint sources are located in the vicinity of bright spatially resolved galaxies that cannot be approximated by the Sérsic elliptical profile

    Clinical Post-SARS-CoV-2 Infection Scenarios in Vaccinated and Non-Vaccinated Cancer Patients in Three German Cancer Centers: A Retrospective Analysis.

    Get PDF
    COVID-19 vaccines have become an integral element in the protection of cancer patients against SARS-CoV-2. To date, there are no direct comparisons of the course of COVID-19 infection in cancer patients between the pre- and post-vaccine era. We analyzed SARS-CoV-2 infections and their impact on cancer in COVID-19 vaccinated and non-vaccinated patients from three German cancer centers. Overall, 133 patients with SARS-CoV-2 were enrolled in pre- and post-vaccine eras: 84 non-vaccinated and 49 vaccinated, respectively. A mild course of COVID-19 was documented more frequently in vaccinated patients (49% vs. 29%), while the frequency of severe and critical courses occurred in approximately one-half of the non-vaccinated patients (22% vs. 42%, p = 0.023). Particularly, patients with hematologic neoplasms benefited from vaccination in this context (p = 0.031). Admissions to intermediate- and intensive-care units and the necessity of non-invasive and invasive respiratory support were reduced by 71% and 50% among vaccinated patients, respectively. The median length of admission was 11 days for non-vaccinated and 5 days for vaccinated patients (p = 0.002). COVID-19 mortality was reduced by 83% in vaccinated patients (p = 0.046). Finally, the median time from SARS-CoV-2 infection to restarting cancer therapy was 12 and 26 days among vaccinated and non-vaccinated groups, respectively (p = 0.002). Although this study does not have enough power to perform multivariate analyses to account for confounders, it provides data on COVID-19 in non-vaccinated and vaccinated cancer patients and illustrates the potential benefits of COVID-19 vaccines for these patients

    Méthodes pour l'analyse des champs profonds extragalactiques MUSE : démélange et fusion de données hyperspectrales ;détection de sources étendues par inférence à grande échelle

    Get PDF
    This work takes place in the context of the study of hyperspectral deep fields produced by the European 3D spectrograph MUSE. These fields allow to explore the young remote Universe and to study the physical and chemical properties of the first galactical and extra-galactical structures.The first part of the thesis deals with the estimation of a spectral signature for each galaxy. As MUSE is a terrestrial instrument, the atmospheric turbulences strongly degrades the spatial resolution power of the instrument thus generating spectral mixing of multiple sources. To remove this issue, data fusion approaches, based on a linear mixing model and complementary data from the Hubble Space Telescope are proposed, allowing the spectral separation of the sources.The second goal of this thesis is to detect the Circum-Galactic Medium (CGM). This CGM, which is formed of clouds of gas surrounding some galaxies, is characterized by a spatially extended faint spectral signature. To detect this kind of signal, an hypothesis testing approach is proposed, based on a max-test strategy on a dictionary. The test statistics is learned on the data. This method is then extended to better take into account the spatial structure of the targets, thus improving the detection power, while still ensuring global error control.All these developments are integrated in the software library of the MUSE consortium in order to be used by the astrophysical community.Moreover, these works can easily be extended beyond MUSE data to other application fields that need faint extended source detection and source separation methods.Ces travaux se placent dans le contexte de l'étude des champs profonds hyperspectraux produits par l'instrument d'observation céleste MUSE. Ces données permettent de sonder l'Univers lointain et d'étudier les propriétés physiques et chimiques des premières structures galactiques et extra-galactiques. La première problématique abordée dans cette thèse est l'attribution d'une signature spectrale pour chaque source galactique. MUSE étant un instrument au sol, la turbulence atmosphérique dégrade fortement le pouvoir de résolution spatiale de l'instrument, ce qui génère des situations de mélange spectral pour un grand nombre de sources. Pour lever cette limitation, des approches de fusion de données, s'appuyant sur les données complémentaires du télescope spatial Hubble et d'un modèle de mélange linéaire, sont proposées, permettant la séparation spectrale des sources du champ. Le second objectif de cette thèse est la détection du Circum-Galactic Medium (CGM). Le CGM, milieu gazeux s'étendant autour de certaines galaxies, se caractérise par une signature spatialement diffuse et de faible intensité spectrale. Une méthode de détection de cette signature par test d'hypothèses est développée, basée sur une stratégie de max-test sur un dictionnaire et un apprentissage des statistiques de test sur les données. Cette méthode est ensuite étendue pour prendre en compte la structure spatiale des sources et ainsi améliorer la puissance de détection tout en conservant un contrôle global des erreurs. Les codes développés sont intégrés dans la bibliothèque logicielle du consortium MUSE afin d'être utilisables par l'ensemble de la communauté. De plus, si ces travaux sont particulièrement adaptés aux données MUSE, ils peuvent être étendus à d'autres applications dans les domaines de la séparation de sources et de la détection de sources faibles et étendues

    Methods for the analysis of extragalactic MUSE deep fields : hyperspectral unmixing and data fusion;detection of extented sources with large-scale inference

    No full text
    Ces travaux se placent dans le contexte de l'étude des champs profonds hyperspectraux produits par l'instrument d'observation céleste MUSE. Ces données permettent de sonder l'Univers lointain et d'étudier les propriétés physiques et chimiques des premières structures galactiques et extra-galactiques. La première problématique abordée dans cette thèse est l'attribution d'une signature spectrale pour chaque source galactique. MUSE étant un instrument au sol, la turbulence atmosphérique dégrade fortement le pouvoir de résolution spatiale de l'instrument, ce qui génère des situations de mélange spectral pour un grand nombre de sources. Pour lever cette limitation, des approches de fusion de données, s'appuyant sur les données complémentaires du télescope spatial Hubble et d'un modèle de mélange linéaire, sont proposées, permettant la séparation spectrale des sources du champ. Le second objectif de cette thèse est la détection du Circum-Galactic Medium (CGM). Le CGM, milieu gazeux s'étendant autour de certaines galaxies, se caractérise par une signature spatialement diffuse et de faible intensité spectrale. Une méthode de détection de cette signature par test d'hypothèses est développée, basée sur une stratégie de max-test sur un dictionnaire et un apprentissage des statistiques de test sur les données. Cette méthode est ensuite étendue pour prendre en compte la structure spatiale des sources et ainsi améliorer la puissance de détection tout en conservant un contrôle global des erreurs. Les codes développés sont intégrés dans la bibliothèque logicielle du consortium MUSE afin d'être utilisables par l'ensemble de la communauté. De plus, si ces travaux sont particulièrement adaptés aux données MUSE, ils peuvent être étendus à d'autres applications dans les domaines de la séparation de sources et de la détection de sources faibles et étendues.This work takes place in the context of the study of hyperspectral deep fields produced by the European 3D spectrograph MUSE. These fields allow to explore the young remote Universe and to study the physical and chemical properties of the first galactical and extra-galactical structures.The first part of the thesis deals with the estimation of a spectral signature for each galaxy. As MUSE is a terrestrial instrument, the atmospheric turbulences strongly degrades the spatial resolution power of the instrument thus generating spectral mixing of multiple sources. To remove this issue, data fusion approaches, based on a linear mixing model and complementary data from the Hubble Space Telescope are proposed, allowing the spectral separation of the sources.The second goal of this thesis is to detect the Circum-Galactic Medium (CGM). This CGM, which is formed of clouds of gas surrounding some galaxies, is characterized by a spatially extended faint spectral signature. To detect this kind of signal, an hypothesis testing approach is proposed, based on a max-test strategy on a dictionary. The test statistics is learned on the data. This method is then extended to better take into account the spatial structure of the targets, thus improving the detection power, while still ensuring global error control.All these developments are integrated in the software library of the MUSE consortium in order to be used by the astrophysical community.Moreover, these works can easily be extended beyond MUSE data to other application fields that need faint extended source detection and source separation methods

    Approche bayésienne non paramétrique pour l'imagerie de super-résolution PALM

    No full text
    National audienceLa microscopie super-résolution optique est une technique récente qui permet d'améliorer la résolution des images pour passer de quelques centaines à quelques dizaines de nanomètres, et ce sur échantillon biologique vivant. Nous proposons ici d'améliorer l'analyse des piles d'images générées par cette technique d'imagerie avec une approche bayésienne non paramétrique, pour des piles d'images bruitées. Abstract – Optical super-resolution microscopy is a recent imaging technique. This allows improving the image resolution from a few hundreds to a few tens of nanometers, thus beyond the diffraction limit, for live-cell imaging. This work aims to improve the processing of noisy image stacks delivered by this technique based on a nonparametric Bayesian method

    Global error control procedure for spatially structured targets

    No full text
    International audienceIn this paper, a target detection procedure with global error control is proposed. The novelty of this approach consists in taking into account spatial structures of the target while ensuring proper error control over pixelwise errors. A generic framework is discussed and a method based on this framework is implemented. Results on simulated data show conclusive gains in detection power for a nominal control level. The method is also applied on real data produced by the astronomical instrument MUSE

    An adaptive robust regression method: Application to galaxy spectrum baseline estimation

    No full text
    International audienceIn this paper, a new robust regression method based on the Least Trimmed Squares (LTS) is proposed. The novelty of this approach consists in a simple adaptive estimation of the number of outliers. This method can be applied to baseline estimation, for example to improve the detection of gas spectral signature in astronomical hy-perspectral data such as those produced by the new Multi Unit Spec-troscopic Explorer (MUSE) instrument. To do so a method following the general idea of the LOWESS algorithm, a classical robust smoothing method, is developed. It consists in a windowed local linear regression, the local regression being done here by the new adap-tive LTS approach. The developed method is compared with state-of-the art baseline estimated algorithms on simulated data closed to the real data produced by the MUSE instrument

    Détection de cibles spatialement structurées sous contrôle global d'erreur

    No full text
    National audienceIn this paper, a target detection procedure with global error control is proposed. The novelty of this approach consists of taking into account spatial structures of the target while ensuring proper error control over pixelwise errors. A generic framework is discussed and a method based on this framework is implemented (COMET). Results on simulated data show conclusive gains in detection power for a nominal control level.Dans un grand nombre de problèmes de détection (en imagerie par exemple), la cible recherchée présente une certaine structure spatiale. Prendre en compte cet a priori doit permettre d'améliorer la puissance de détection. Par ailleurs la détection de cibles multi-pixels dans un contexte de tests multiples requiert l'utilisation de techniques spécifiques de contrôle global des erreurs. Dans cette étude, une approche de détection s'appuyant sur des contraintes de connexité tout en assurant un contrôle de type False Discovery Rate (FDR) est proposée. L'approche développée est générique et ouvre la possibilité à diverses implémentations. Une méthode originale est proposée et implémentée (COMET). COMET permet un gain important en puissance de détection tout en garantissant un contrôle du taux global d'erreur, ce qui est illustré sur des données simulées

    Tracking the Lyman alpha emission line in the CircumGalactic Medium in MUSE data

    No full text
    International audienceSince 2014, the Multi Unit Spectroscopic Explorer (MUSE) instrument generates hyperspectral datacubes (300 by 300 pixels by 3600 wavelength in the visible range) of the deep Universe. One of the main purposes of the wide field spectrograph MUSE is to analyse galaxies and their surroundings by the study of their spectra. Galaxy spectra are composed of a continuum emission and of sparse emission (or absorption) peaks. On the contrary surrounding gas only contains peak such as the Lyman alpha emission line. Several methods are developed here to detect the gas signature as far as possible in the galaxy surroundings. These methods combined clustering approaches and several pre-processing steps

    Méthode de σ-clipping par point fixe pour l'estimation de la distribution sous H0 dans le cadre de tests multiples

    No full text
    National audienceMultiple tests procedures used in different fields such as medical imaging, astronomy, or genetics require the knowledge of the null distribution under H0 which corresponds to the case where the phenomenon of interest is absent, i.e. there is only noise. Some authors as [3, 4, 5] highlight the fact that, even the true H0 samples are not exactly distributed as expected. It is then necessary to estimate the true null distribution directly from the data to correct this misspecification. This ensures more reliable and powerful testing procedures, robust to the possible presence of the signal/phenomenon of interest (H1 alternative hypothesis). In this paper, we propose a new method for mean and variance estimation under H0. We show a comparison of the performances w.r.t. well-known methods of the literature in the case of random gaussian field data whose mean and variance are a priori unknown.– Dans le cadre des procédures de type tests multiples (imagerie médicale, astronomie, données génétiques, etc), il est nécessaire de modéliser l'hypothèse nulle H0 qui représente le cas où "le phénomène d'intérêt est absent", i.e. il n'y a que du bruit. De nombreux travaux [3, 4, 5] ont mis en évidence le fait que, même sous H0, les données traitées ne sont pas exactement distribuées selon le modèle théorique utilisé. Il s'avère alors nécessaire d'estimer la distribution sous H0 à partir des données elles-même afin de corriger le modèle et d'obtenir des procédures de test plus fiables et plus puissantes. Une telle estimation doit être robuste face à la présence potentielle du phénomène/signal d'intérêt (hypothèse alternative H1) parmi les multiples observations. Nous proposons dans ce papier une nouvelle méthode d'estimation des paramètres de moyenne et de variance sous l'hypothèse nulle H0. Nous montrons une comparaison des performances par rapport à des méthodes issues de la littérature dans le cas de champs aléatoires gaussiens dont la moyenne et la variance sont a priori inconnues
    • …
    corecore