18 research outputs found

    Utilisation de grilles de calcul pour la génomique comparative

    Get PDF
    International audienceLarge scale phylogenomics and comparative genomics require complex computational methods (parsimony, maximum likelihood, bayesian methods, MCMC, etc.) associated with massively distributed calculation. In this respect, grid computing plays a crucial role. Here we present how we processed exhaustive similarity searches on several millions of sequences with BLAST, using two different grids (TIDRA and GRISBI)

    Utilisation de grilles de calcul pour la génomique comparative

    Get PDF
    International audienceLarge scale phylogenomics and comparative genomics require complex computational methods (parsimony, maximum likelihood, bayesian methods, MCMC, etc.) associated with massively distributed calculation. In this respect, grid computing plays a crucial role. Here we present how we processed exhaustive similarity searches on several millions of sequences with BLAST, using two different grids (TIDRA and GRISBI)

    Circulating adrenomedullin estimates survival and reversibility of organ failure in sepsis: the prospective observational multinational Adrenomedullin and Outcome in Sepsis and Septic Shock-1 (AdrenOSS-1) study

    Get PDF
    Background: Adrenomedullin (ADM) regulates vascular tone and endothelial permeability during sepsis. Levels of circulating biologically active ADM (bio-ADM) show an inverse relationship with blood pressure and a direct relationship with vasopressor requirement. In the present prospective observational multinational Adrenomedullin and Outcome in Sepsis and Septic Shock 1 (, AdrenOSS-1) study, we assessed relationships between circulating bio-ADM during the initial intensive care unit (ICU) stay and short-term outcome in order to eventually design a biomarker-guided randomized controlled trial. Methods: AdrenOSS-1 was a prospective observational multinational study. The primary outcome was 28-day mortality. Secondary outcomes included organ failure as defined by Sequential Organ Failure Assessment (SOFA) score, organ support with focus on vasopressor/inotropic use, and need for renal replacement therapy. AdrenOSS-1 included 583 patients admitted to the ICU with sepsis or septic shock. Results: Circulating bio-ADM levels were measured upon admission and at day 2. Median bio-ADM concentration upon admission was 80.5 pg/ml [IQR 41.5-148.1 pg/ml]. Initial SOFA score was 7 [IQR 5-10], and 28-day mortality was 22%. We found marked associations between bio-ADM upon admission and 28-day mortality (unadjusted standardized HR 2.3 [CI 1.9-2.9]; adjusted HR 1.6 [CI 1.1-2.5]) and between bio-ADM levels and SOFA score (p < 0.0001). Need of vasopressor/inotrope, renal replacement therapy, and positive fluid balance were more prevalent in patients with a bio-ADM > 70 pg/ml upon admission than in those with bio-ADM ≤ 70 pg/ml. In patients with bio-ADM > 70 pg/ml upon admission, decrease in bio-ADM below 70 pg/ml at day 2 was associated with recovery of organ function at day 7 and better 28-day outcome (9.5% mortality). By contrast, persistently elevated bio-ADM at day 2 was associated with prolonged organ dysfunction and high 28-day mortality (38.1% mortality, HR 4.9, 95% CI 2.5-9.8). Conclusions: AdrenOSS-1 shows that early levels and rapid changes in bio-ADM estimate short-term outcome in sepsis and septic shock. These data are the backbone of the design of the biomarker-guided AdrenOSS-2 trial. Trial registration: ClinicalTrials.gov, NCT02393781. Registered on March 19, 2015

    iRODS at CC-IN2P3

    No full text
    International audienceIn this paper, we will show how iRODS is being usedd at CC-IN2P3, the future plans, code development, and also SRB to iRODS migratio

    Two experiments with application-level quality of service on the EGEE grid

    No full text
    International audienceThis paper presents an experimental study of application-level Quality of Service (QoS) on the EGEE production grid. Two experiments are reported. First, the design of a Grid Application-Level QoS Service is presented and compared to the DIANE pilot-job framework. Providing dynamic monitoring, the Java Job Submission system is then evaluated in similar conditions. Results show that these systems are able to reach similar QoS than pilot jobs in many cases. However, robustness issues remain and infrastructure monitoring still has to be improved to provide more autonomy to application-level grid job handling systems

    Le couple CoreBook / Cyber-Carothèque Nationale : un système de collecte et de gestion d’information dédié aux carottes sédimentaires marines et continentales.

    Get PDF
    PosterInternational audienceLa gestion des données constitue l’un des défis de l’Open science dans le contexte de la loi « Pour une république numérique ». Ceci est particulièrement important dans le domaine des sciences de la Terre et de l’environnement dans lequel la multiplication des échantillons de terrain et de mesures qui sont réalisées sur chaque conduit à une croissance exponentielle du nombre de données. Dans le cas de l’étude des carottes sédimentaires, l’engouement pour les méthodes paléoenvironnementales, pour répondre à des problématiques variées allant des chroniques de contaminations récentes aux évolutions climatiques pluriséculaires à plurimillénaire, voire plus, participe de cette croissance. Or, l’absence de systèmes d’information dédiée ne permet pas de capitaliser sur cette grande richesse en reliant les données entre elles.Dans cette contribution, nous présentons un système développé dans le cadre du programme Equipex CLIMCOR afin de bancariser les informations de terrain collectées lors du prélèvement de carottes sédimentaire. Ce système est constitué de deux modules : i) CoreBook, qui est une application mobile de collecte d’information sous Android et ii) la Cyber-carothèque nationale (Base MySQL), qui est un portail d’import, de consultation et de diffusion des informations.CoreBook a été pensé pour être embarquée sur une tablette durcie du commerce. Elle apporte une plus-value lors des opérations de carottage sur le terrain. Il comprend notamment des fonctionnalités comme le repérage des carottages précédents, une aide à la navigation et aux opérations d’ancrage ou encore la visualisation en coupe des carottages multi-sections et/ou multi-trous, ou en carte des carottages simple section. Optimisé pour la carottage multi-sections multi-séquences, il est adapté à tout type de méthode de carottage (carottier russe, gravitaire, piston stationnaire, etc.). Chaque entité de recherche (labo) a la possibilité de créer des configurations de matériels dans le portail « Cyber-carothèque » en constituant un référentiel qu’il retrouvera dans le CoreBook ; ce référentiel facilite la sélection d’outils une fois sur le terrain et associe automatiquement les paramètres de carottage et d’outils aux futurs échantillons ce qui permet de gagner en précision et qualité. Les données collectées par CoreBook sont directement synchronisables avec la cyber-carothèque. Un format d’échange permettra également d’alimenter les bases de données locales de laboratoire. La cyber-carothèque permet de gérer les configurations matérielles des entités de recherche. Elle recueille les métadonnées des opérations de prélèvement de carottes, soit via CoreBook, soit via un fichier d’import respectant un format spécifique. Interopérable, elle est capable, via des web-services, de moissonner des bases existantes et d’être moissonnée par celles-ci par des protocoles standardisés (OGC WFS).Une fois entrée dans la Cyber-carothèque, chaque échantillon reçoit un identifiant unique au format international IGSN. Equivalent d’un DOI pour les échantillons géologiques, cet identifiant permet de tracer la carotte et les opérations de terrain ayant permis de la prélever, à chaque fois qu’elle est utilisée pour une publication ou intégrée dans un système d’information. Il s’agit d’une étape préalable indispensable vers la bancarisation, la qualité, le partage et la réutilisabilité des données.Pour l’utilisateur final, la Cyber-carothèque offre des fonctionnalités de recherche et constitue une base de référence, structurée, ouverte et standardisé permettant de connaître les échantillons déjà prélevés dans une région donnée, ou encore de suivre l’activité d’un groupe de chercheur ou d’une entité de recherche. En prenant le problème de la gestion des données à la base, au niveau des opérations de terrain, le système CoreBook & Cyber-carothèque fournit à la communauté scientifique nationale un socle solide pour développer des bases de données, soit pour la gestion interne des données et/ou des échantillons, soit pour évoluer vers des systèmes plus intégrés en associant de données analytiques. La Cyber-carothèque est accessible à l’adresse : https://cybercarotheque.fr/index.php, on y trouve notamment le lien et les instructions pour télécharger l’application CoreBook

    How to turn kilos of mud into megabytes of data? 10 years of efforts in curating lake sediment cores and their associated results

    No full text
    International audienceHere we present a series of connected efforts aiming at curating sediment cores and their related data. Far to be isolated, these efforts were conducted within national structured projects and led to the development of digital solutions and good practices in-line with international standards and practices.Our efforts aimed at ensuring FAIR-compatible practices (Plomp, 2020; Wilkinson et al., 2016) throughout the life cycle of sediment cores, from fieldwork to published data. We adopted a step-by-step, bottom-up strategy to formalize a dataflow, mirroring our workflow. We hence created a fieldwork mobile application (CoreBook) to gather information during coring operations and inject them toward the French national virtual core repository “Cyber-Carothèque Nationale” (CCN). At this stage, the allocation of an international persistent unique identifier was crucial and we naturally chose the IGSN.Beyond the traceability of samples, the curation of analysis data remains challenging. Most international repository (e.g. NOAA palaeo-data, PANGAEA) have taken the problem from the top by offering facilities to display published dataset with persistant unique identifier (DOI). Yet, those data are only a fraction of the gross amount of acquired data. Moreover, those repositories have very low requirements when it comes to the preservation and display of metadata, in particular analytical parameters, but also fieldwork data which are essential for data reusability. Finally, these repositories do not permit to get a synoptic view on the several strata of analyses that have been conducted on the same core through different research programs and publications. A partial solution is proposed by the eLTER metadata standard DEIMS, which offers a discovery interface of rich metadata. In order to bridge the gap between generalist data repositories and samples display systems (such as CCN, but also IMLGS, to cite an international system), we developed a data repository and visualizer dedicated to the re-use of lake sediment cores, samples and sampling locations (ROZA Retro-Observatory of the Zone Atelier). This system is still a prototype but opens yet interesting perspectives.Finally, the digital evolution of science allows the worldwide diffusion of data processing freewares. In that framework, we developed “Serac” an open-source R package to establish radionuclide-based age models following the most common sedimentation hypotheses (serac,). By implementing within this R package the input of a rich metadata file that gathers links to IGSN and other quality metadata, we are linking fieldwork metadata, the physical storage of the core and the analytical metadata. Indeed, Serac also stores data processing procedure in a standardized way.. We hence think that the development of such softwares could help in the spreading of good practices in data curation and favour the use of unique identifiers.By tackling all aspects of data creation and curation throughout a lake sediment core life cycle, we are now able to propose a theoretical model of data curation for this particular type of sample that could serve as the sole for further developments of integrated data curation systems.https://doi.org/10.5194/egusphere-egu21-1503

    Rapport d’activité ODATIS 2022

    No full text
    Le pôle ODATIS de l'IR Data Terra publie son rapport d'activités 2022, qui synthétise les activités et les actions menées durant l'année passée à l'échelle du pôle, de ses Centres de Données et Services et au travers de son implication dans différents projets nationaux et européens et dans les instances de l'IR Data Terra. Ce rapport témoigne de l'intensité de l'activité du pôle, des résultats accomplis, des développements en cours, de l'évolution de l'offre des données, outils et services qui représentent autant un bilan qu'un fil stratégique pour mieux cibler, fédérer et coordonner les besoins de la communauté océanographique et de l'observation de la Terre
    corecore