18 research outputs found

    MARCS-Model Stellar Atmospheres, and Their Application to the Photometric Calibration of the Spitzer-IRS

    Full text link
    We describe state-of-the-art MARCS-code model atmospheres generated for a group of A dwarf, G dwarf, and late-G to mid-K giant standard stars, selected to photometrically calibrate the Spitzer-IRS, and compare the synthetic spectra to observations of HR 6688, HR 6705, and HR 7891. The general calibration processes and uncertainties are briefly described, and the differences between various templated composite spectra of the standards are addressed. In particular, a contrast between up-to-date model atmospheres and previously published composite and synthetic spectra is illustrated for wavelength ranges around 8um (where the SiO Delta(v) = 1 band occurs for the cooler standards) and lambda greater than 20um, where the use of the Engelke function will lead to increasingly large discrepancies due to the neglect of gravity in cool stars. At this point, radiometric requirements are being met, absolute flux calibration uncertainties (1-sigma) are ~20% in the SH and LH, and ~15% in the SL and LL data, and order-to-order flux uncertainties are ~10% or less. Iteration between the MARCS model atmosphere inputs and the data processing will improve the S/N ratios and calibration accuracies.Comment: 6 pages, 3 figures, accepted for publication in the ApJSS Spitzer editio

    Observations cosmologiques avec un télescope grand champ spatial: Simulations pixels du spectromètre sans fente d'EUCLID

    No full text
    The observations of the supernovae, the cosmic microwave background, and more recently the measurement of baryon acoustic oscillations and the weak lensing effects, converge to a Lambda CDM model, with an accelerating expansion of the today Universe. This model need two dark components to fit the observations, the dark matter and the dark energy. Two approaches seem particularly promising to measure both geometry of the Universe and growth of dark matter structures, the analysis of the weak distortions of distant galaxies by gravitational lensing and the study of the baryon acoustic oscillations. Both methods required a very large sky surveys of several thousand square degrees. In the context of the spectroscopic survey of the space mission EUCLID, dedicated to the study of the dark side of the universe, I developed a pixel simulation tool for analyzing instrumental performances. The proposed method can be summarized in three steps. The first step is to simulate the observables, ie mainly the sources of the sky. I work up a new method, adapted for spectroscopic simulations, which allows to mock an existing survey of galaxies in ensuring that the distribution of the spectral properties of galaxies are representative of current observations, in particular the distribution of the emission lines. The second step is to simulate the instrument and produce images which are equivalent to the expected real images. Based on the pixel simulator of the HST, I developed a new tool to compute the images of the spectroscopic channel of EUCLID. The new simulator have the particularity to be able to simulate PSF with various energy distributions and detectors which have different pixels. The last step is the estimation of the performances of the instrument. Based on existing tools, I set up a pipeline of image processing and performances measurement. My main results were: 1) to validate the method by simulating an existing survey of galaxies, the WISP survey, 2) to determine the tolerances on the energy distribution of the PSF for the slitless spectrometer of EUCLID, 3) to determine the tolerances on the properties of near-infrared detectors of EUCLID.Les observations des supernovae, du fond diffus cosmologique, et plus récemment la mesure des oscillations acoustiques des baryons et des effets de lentilles gravitationnelles faibles, favorisent le modèle cosmologique Lambda CDM pour lequel l'expansion de l'Univers est actuellement en accélération. Ce modèle fait appel à deux composants insaisissables, la matière sombre et l'énergie sombre. Deux approches semblent particulièrement prometteuses pour sonder à la fois la géométrie de l'Univers et la croissance des structures de matière noire, l'analyse des distorsions faibles des galaxies lointaines par cisaillement gravitationnel et l'étude des oscillations acoustiques des baryons. Ces deux méthodes demandent de très grands relevés du ciel, de plusieurs milliers de degrés carrés, en imagerie et en spectroscopie. Dans le contexte du relevé spectroscopique de la mission spatiale EUCLID, dédiée à l'étude des composantes sombres de l'univers, j'ai réalisé des simulations pixels permettant l'analyse des performances instrumentales. La méthode proposée peut se résumer en trois étapes. La première étape est de simuler les observables, c'est à dire principalement les sources du ciel. Pour cela j'ai développé une nouvelle méthode, adapté à la spectroscopie, qui permet d'imiter un relevé existant, en s'assurant que la distribution des propriétés spectrales des galaxies soit représentative des observations actuelles, en particulier la distribution des raies d'émission. La seconde étape est de simuler l'instrument et de produire des images équivalentes aux images réelles attendues. En me basant sur le simulateur pixel du HST, j'ai développé un nouvel outil permettant de simuler les images en spectroscopie sans fente d'EUCLID. Le nouveau simulateur a la particularité de pouvoir simuler des PSF avec une distribution d'énergie variée et des détecteurs dont chaque pixel est différent. La dernière étape est l'estimation des performances de l'instrument. Encore en me basant sur les outils existant, j'ai mis en place un pipeline de traitement des images et de mesure de performances. Mes résultat principaux ont été : 1) de valider la méthode en simulant un relevé de galaxies existant, le relevé WISP, 2) de déterminer les tolérances sur la distribution d'énergie de la PSF du spectromètre sans fente d'EUCLID, 3) de déterminer les tolérances sur les propriétés de détecteurs proche infrarouge d'EUCLID

    Hope College Alumni Magazine, Volume 3, Number 2: April 1950

    Get PDF
    https://digitalcommons.hope.edu/alumni_magazine/1009/thumbnail.jp

    Modèles probabilistes de feux de forêt sur des graphes infinis

    Get PDF
    Cette thèse concerne l'étude de modèles de feux de forêt d'un point de vue probabiliste. Les modèles que nous avons étudiés ont été introduits dans le cadre de l'étude des systèmes critiques auto-organisés à la fin des années 80. Il s'agit de systèmes de particules, les arbres, définis sur un graphe connecté. Leur évolution est régie par deux familles de processus de Poisson, l'une pour la croissance des arbres, l'autre pour leur disparition via l'action de la foudre. L'influence de la foudre est caractérisée par un paramètre lambda > 0. Ces modèles ont été beaucoup étudiés sur Z. Par contre sur des graphes infinis plus généraux, seules son existence et son unicité ont été montrées jusqu'à présent. Dans cette thèse, nous avons étudié ces modèles sur Zd pour d > 2 et sur les arbres binaires, dans deux directions. La première concerne l'existence de mesures invariantes. La deuxième concerne l'étude de ce modèle lorsque le paramètre lambda tend vers 0. Dans la première partie, nous montrerons que pour tous les paramètres lambda > 0, les processus de feux de forêt sur Zd pour d > 2 possèdent au moins une mesure invariante. Les processus de feux de forêt sont des processus de Markov non Feller, donc on ne peut pas appliquer les théorèmes usuels de l'étude des systèmes de particules. De plus, la géométrie de Zd ne permet pas d'utiliser les mêmes arguments que dans le cas de Z. Nous utiliserons des outils développés lors de l'étude de ces modèles sur Zd. Dans une seconde partie, nous nous consacrerons à la problématique de l'existence d'un processus limite lorsque lambda tend vers 0, sur les arbres binaires. Dans un premier temps, nous étudierons un modèle sans feux pour mieux comprendre comment grossissent les composantes connexes d'arbres. En se plaçant dans une nouvelle échelle de temps et d'espace, nous montrerons la convergence en loi de la taille d'un ensemble de sites construit à partir d'une boule de rayon n et des composantes connexes qui l'intersectent, au bout d'un temps t(n) > 0. Dans un deuxième temps, nous rajouterons l'action de feux, en définissant un modèle différent du modèle initial. Dans ce modèle modifié, les composantes connexes autres que celle de l'origine suivront une loi stationnaire à laquelle on s'attend à la limite, et non la dynamique du modèle de feux de forêt initial. Pour ce modèle, nous montrerons la convergence en loi de la taille renormalisée de la composante connexe de l'origine au moment où elle brûle pour la première fois.This work is concerned with a probabilistic study of forest-fire models. The models studied here were introduced in the context of self-organized criticality at the end of the eighties. These models are systems of particles, the trees, defined on connected graphs. Their evolution is governed by two families of Poisson processes, one for the growth of trees, the other one for the ignition of trees by lightning. The influence of lightning is characterized by a parameter lambda > 0. These models were widely studied on Z. However, only the existence and uniqueness of more general infinitevolume forest-fire processes have been proven yet. In this thesis, we studied forest-fire models on Zd for d > 2 and on binary trees, in two directions. The first one is concerned with the existence of stationary measures. The second one is concerned with the study of these processes when the parameter lambda tends to zero. In the first part, we will show the existence of at least one stationary measure for forest-fire processes on Zd, d > 2, for all parameters lambda > 0. The forest-fire processes are Markov processes but not Feller processes, so the usual arguments cannot be used here. Moreover, the geometry of Zd does not allow using the same arguments as for Z. Tools developed while studying these processes on Zd will be used here. In the second part, we will study the behavior of the forest-fire processes on binary trees when the parameter lambda tends to zero. We will begin with the study of a model without any fires, in order to understand better how the clusters of trees grow. We will show a convergence in law of the number of sites of a set construct from a ball of radius and the intersecting clusters, after a time tn > 0, for processes rescaled in space and time. Then, we will add fires and define a modified forest-fire model. In this new model, apart from the cluster of the origin, the clusters evolve under a stationary measure which we expect at the limit in lambda, and not under the dynamic of the initial forest-fire model. For this model, we will show a convergence in law of the rescaled size of the cluster of the origin when it burns for the first time

    La Salle Magazine Summer 1965

    Get PDF
    https://digitalcommons.lasalle.edu/lasalle_magazine/1031/thumbnail.jp

    Petit Jean 1949-1950

    Get PDF
    https://scholarworks.harding.edu/petit-jean/1025/thumbnail.jp

    CALCIUM SIGNALING AND ALG-2 IN THE REGULATION OF CONSTITUTIVE SECRETION

    Get PDF
    The constitutive secretory pathway influences almost every aspect of cellular function: generation and maintenance of subcellular compartments; cell growth and differentiation; and production and deposition of the extracellular matrix. Classically, constitutive trafficking was thought to be continuous and unregulated—in contrast to regulated secretion, wherein vesicles are stored intracellularly until a Ca2+ signal causes synchronous membrane fusion. However, early studies demonstrated a Ca2+ requirement for endosome fusion, ER to Golgi, and intra- Golgi trafficking, demonstrating that Ca2+ is a regulator of constitutive trafficking steps as well. In Chapter 1, I review recent evidence for Ca2+ involvement and the specific Ca2+-related machinery implicated in trafficking events throughout the constitutive trafficking systems. Notably, I describe a series of Ca2+ pumps, channels, and Ca2+-binding effector proteins—and their trafficking machinery targets—that together regulate the flux of cargo in response to genetic alterations or baseline and agonist-dependent Ca2+ signals. Of the intracellular constitutive trafficking steps, the ER-to-Golgi transport stage is the busiest, transporting up to one-third of all eukaryotic proteins. However, the potential regulation of these steps by Ca2+ signaling events has remained largely uncharacterized. Studies indicated that the PEF protein apoptosis-linked gene 2 (ALG-2) binds Sec31A at ER-exit-sites (ERES) in a Ca2+-dependent manner, but in vitro and intact cell methodologies have been unable to adequately explain the specific role of ALG-2 and its PEF protein binding partner, peflin, in secretion. Chapter 2 describes experimental procedures, while Chapter 3 significantly expands upon the ALG-2- peflin regulatory machine. I find that although both proteins are fully dispensable for secretion, a peflin-ALG-2 heterocomplex binds to ERES via the ALG-2 subunit and confers a low, buffered transport rate, while peflin-lacking ALG-2 complexes can either enhance or inhibit transport of ER cargoes depending on expression level. This apparent bifurcated response indicates that PEF protein regulatory states may tune transport rates through expression level or Ca2+ changes, yet PEF proteins have never been observed regulating transport in response to Ca2+. In Chapter 4, I examine the roles of ALG-2 and peflin in response to physiological Ca2+-mobilizing agonists, and find that ALG-2 depresses ER export in epithelial NRK cells and enhances ER export in neuroendocrine PC12 cells. Furthermore, I find that Ca2+ signaling in the NRK cell model can produce opposing effects on secretion depending on signaling intensity and duration— phenomena that could contribute to cellular growth and intercellular communication following secretory increases or protection from excitotoxicity and infection following secretory decreases. Mechanistically, ALG-2-dependent depression of secretion involves decreased levels of the COPII outer shell and increased peflin targeting to ERES, while ALG-2-dependent enhancement of secretion involves increased COPII outer shell and decreased peflin at ERES. These data provide insights into how PEF protein dynamics affect secretion of important physiological cargoes such as collagen I and significantly impact ER stress

    ENHANCED OIL DEGRADATION BY BACTERIA WHEN IMMOBILIZED TO AN OLEOPHILIC SUBSTRATUM

    Get PDF
    Three immobilization matrices, Biofix (kaolinite microspheres), Drizit (polypropylene fibres) and polyester polyurethane were used as substrata for use in bioremediation. Enhanced biodegradation of petrol (Slovene diesel) and Ekofisk crude oil occurred with immobilization of Pseudomonas fluorescens to Biofix and Drizit in freshwater and saltwater systems. When compared to free bacteria, immobilization resulted in; increased growth, accelerated ability of the cells to utilize oil, and enhanced biodegradation as determined by gas chromatography. In the freshwater systems Drizit immobilized cells reduced the lag phase to one day in comparison to six in a free system and increased biodegradation of the n-alkanes by 67 %. Immobilization resulted in enhanced production of a rhamnolipid biosurfactant over the first three days of incubation in comparison to free living bacteria which showed a lag phase of two days. All three supports were compared by; scanning electron microscopy, cell loading capacity, absorption of oil, their abilities to enhance oil biodegradation and the effect of drying and storage on the immobilized cells. Biodegradation of hydrocarbons by immobilized cells was dependent on the biocarrier, with polyurethane immobilized cells failing to enhance biodegradation of Ekofisk crude oil. Drizit was the most effective biocarrier tested and the most suitable immobilization substratum for use as a bioremediation agent. Investigation into the location of the genes for alkane degradation in immobilized Pseudomonas fluorescens was undertaken. Plasmid DNA was detected using gel electrophoresis, and caesium chloride-ethidium bromide gradient was carried out to confirm the presence of the plasmid, but no plasmid band was visualized. The successful immobilization system was scaled-up, optimized by supplementation with nitrates and phosphates and applied to microcosms that modelled environmental conditions. Enhanced biodegradation of Ekofisk crude oil was demonstrated on a larger scale, in an estuarine microcosm, with the immobilized systems showing an average degradation of 41.9 % in comparison to 7.1 % in the microcosm containing free indigenous bacteria

    Cartographie génétique fine par le graphe de recombinaison ancestral

    Full text link
    Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur

    Méthodes de regroupement et de découverte de motifs pour les données fonctionnelles

    Get PDF
    Ce mémoire propose des outils d'analyse des données fonctionnelles (ADF). Cette analyse s'applique aux données dont la structure peut être considérée comme une fonction. Dans ce travail, nous avons fait, avec des exemples pratiques sous R, un parcours sur une partie des méthodes existantes. D'abord, nous avons commencé par une petite introduction générale sur l'ADF où nous avons parlé non seulement des différentes bases classiques (base de Fourier, base polynomiale, base spline) qui permettent de représenter les données fonctionnelles en les rapprochant avec une combinaison linéaire de fonctions de base, mais aussi du lissage qui permet de convertir des données observées discrètes en courbes coutinues (par les moindres carrés ou par la pénalisation). Au vu du problème de variabilité en phase des données fonctionnelles, nous avons parlé des différentes méthodes d'alignement des courbes (par points de repère et alignement continu). Ensuite, nous avons étudié le clustering de données fonctionnelles. Il s'agit du processus qui permet de regrouper en cluster des fonctions similaires. Plusieurs méthodes de clustering exitent, mais nous nous sommes focalisés principalement sur les méthodes basées sur la distance, plus particulièrement sur la méthode K-moyennes. Également, le K-moyennes combinant simultanément l'alignement de manière globale et le clustering des courbes a été présentée. Et à travers des exemples pratiques, nous avons pu trouver la structure sous-jacente de données (identification de certaines tendances des données). Enfin, nous avons terminé par présenter le K-moyennes probabiliste avec alignement local qui prend en compte la forme locale des courbes, ce qui n'est pas le cas avec les méthodes susmentionnées qui traitent les courbes dans leur intégralité. Cette méthode, développée par Cremona et Chiaromonte, permet le regroupement local des courbes et la découverte de motifs fonctionnels ("formes" typiques) dans ces courbes. Sous R, cette méthode est fournit par le package probKMA.FMD (ProbKMA-based Functional Motif Discovery) qui est en construction. Des exemples pratiques ont été montrés afin de bien tester les codes et les fonctions du package.This thesis proposes tools for functional data analysis (FDA). FDA is used on data whose structure can be considered as a function. In this work, we have looked at some of the existing methods using practical examples with R. First, we started with a short general introduction on FDA in which we discussed the different classical bases (Fourier basis, polynomial basis, Spline basis) which allow to represent functional data through a linear combination of basis functions. We also considered smoothing, which allows the conversion of discrete observed data into continuous curves (by least squares or by rougghness penalty). Regarding the problem of phase variability of functional data, we discussed different methods of curve alignment (by landmarks and continuous alignment). Second, we studied the clustering of functional data, which permits to group similar functions into clusters. Several clustering methods exist, but we mainly focused on distance-based methods, particularly on the K-means. Moreover, we considered a K-means combining simultaneously global alignment and clustering of curves. Through practical examples, we were able to find the underlying structure of the data (identification of certain patterns in the data). Finally, we presented the probabilistic K-means with local alignment which takes into account the local shape of the curves,as opposed to the previously mentioned methods which treat the curves in their entirety. This method, developed by Cremona and Chiaromonte, allows the local clustering of curves and the discovery of functional motifs ("shapes") in these curves. In R, this method is provided by the probKMA.FMD (ProbKMA-based Functional Motif Discovery) package which is under construction. Practical examples have been shown to test the codes and functions of the package
    corecore