48 research outputs found

    Fecal Calprotectin Excretion in Preterm Infants during the Neonatal Period

    Get PDF
    Fecal calprotectin has been proposed as a non-invasive marker of intestinal inflammation in inflammatory bowel disease in adults and children. Fecal calprotectin levels have been reported to be much higher in both healthy full-term and preterm infants than in children and adults.To determine the time course of fecal calprotectin (f-calprotectin) excretion in preterm infants from birth until hospital discharge and to identify factors influencing f-calprotectin levels in the first weeks of life, including bacterial establishment in the gut.F-calprotectin was determined using an ELISA assay in 147 samples obtained prospectively from 47 preterm infants (gestational age, and birth-weight interquartiles 27–29 weeks, and 880–1320 g, respectively) at birth, and at 2-week intervals until hospital discharge. (p = 0.047).During the first weeks of life, the high f-calprotectin values observed in preterm infants could be linked to the gut bacterial establishment

    Clostridia in Premature Neonates' Gut: Incidence, Antibiotic Susceptibility, and Perinatal Determinants Influencing Colonization

    Get PDF
    Although premature neonates (PN) gut microbiota has been studied, data about gut clostridial colonization in PN are scarce. Few studies have reported clostridia colonization in PN whereas Bacteroides and bifidobacteria have been seldom isolated. Such aberrant gut microbiota has been suggested to be a risk factor for the development of intestinal infections. Besides, PN are often treated by broad spectrum antibiotics, but little is known about how antibiotics can influence clostridial colonization based on their susceptibility patterns. The aim of this study was to report the distribution of Clostridium species isolated in feces from PN and to determine their antimicrobial susceptibility patterns. Additionally, clostridial colonization perinatal determinants were analyzed.Of the 76 PN followed until hospital discharge in three French neonatal intensive care units (NICUs), 79% were colonized by clostridia. Clostridium sp. colonization, with a high diversity of species, increased throughout the hospitalization. Antibiotic courses had no effect on the clostridial colonization incidence although strains were found susceptible (except C. difficile) to anti-anaerobe molecules tested. However, levels of colonization were decreased by either antenatal or neonatal (during more than 10 days) antibiotic courses (p = 0.006 and p = 0.001, respectively). Besides, incidence of colonization was depending on the NICU (p = 0.048).This study shows that clostridia are part of the PN gut microbiota. It provides for the first time information on the status of clostridia antimicrobial susceptibility in PN showing that strains were susceptible to most antibiotic molecules. Thus, the high prevalence of this genus is not linked to a high degree of resistance to antimicrobial agents or to the use of antibiotics in NICUs. The main perinatal determinant influencing PN clostridia colonization appears to be the NICU environment

    The prevalence of stillbirths: a systematic review

    Get PDF
    BACKGROUND: Stillbirth rate is an important indicator of access to and quality of antenatal and delivery care. Obtaining overall estimates across various regions of the world is not straightforward due to variation in definitions, data collection methods and reporting. METHODS: We conducted a systematic review of a range of pregnancy-related conditions including stillbirths and performed meta-analysis of the subset of studies reporting stillbirth rates. We examined variation across rates and used meta-regression techniques to explain observed variation. RESULTS: We identified 389 articles on stillbirth prevalence among the 2580 included in the systematic review. We included 70 providing 80 data sets from 50 countries in the meta-analysis. Pooled prevalence rates show variation across various subgroup categories. Rates per 100 births are higher in studies conducted in less developed country settings as compared to more developed (1.17 versus 0.50), of inadequate quality as compared to adequate (1.12 versus 0.66), using sub-national sample as compared to national (1.38 versus 0.68), reporting all stillbirths as compared to late stillbirths (0.95 versus 0.63), published in non-English as compared to English (0.91 versus 0.59) and as journal articles as compared to non-journal (1.37 versus 0.67). The results of the meta-regression show the significance of two predictor variables – development status of the setting and study quality – on stillbirth prevalence. CONCLUSION: Stillbirth prevalence at the community level is typically less than 1% in more developed parts of the world and could exceed 3% in less developed regions. Regular reviews of stillbirth rates in appropriately designed and reported studies are useful in monitoring the adequacy of care. Systematic reviews of prevalence studies are helpful in explaining sources of variation across rates. Exploring these methodological issues will lead to improved standards for assessing the burden of reproductive ill-health

    Stratégies d'optimisation pour la réduction des interférences radars

    No full text
    As the number of vehicles using Advanced Driver Assistance Systems (ADAS) is increasing, so does the number of vehicles equipped with automotive radars. Indeed, market studies estimate that by 2030, 50% of vehicles will be equipped with automotive radars. This rapid growth in radar numbers will likely increase the risk of harmful interference as specifications from standardisation bodies (e.g., ETSI) provide requirements in terms of maximum and mean power, but do not mandate specific radar waveforms nor Common Channel Access Policies (CCAP). Nowadays, automotive radar interference mitigation is done primarily with signal processing techniques and parameter randomisation. These techniques work well today, as the number of radars is low, but they won't suffice in a situation where the majority of cars are equipped with radars. New interference mitigation techniques are becoming important to ensure the long-term correct operation of radars and upper-layer ADAS systems that depend on them in this complex environment. This thesis is devoted to studying the mitigation capabilities of today's methods in future environments with a lot more radars, and investigating new methods making use of the Vehicle-To-Everything (V2X) technology as a side communication channel and Artificial Intelligence (AI) to minimise the amount of interference and optimise the automotive radar band usage. As no data is available to study large-scale road traffic situations with automotive radars and V2X communications, the first part of this thesis focuses on the Python-based simulator that has been built to generate this data and investigate different mitigation techniques. The proposed simulator aims at reproducing what will happen with different mitigation methods in realistic future scenarios. This goal is achieved by simulating realistic scenarios using the Simulation of Urban MObility (SUMO) software, while making reasonable assumptions to lower the computation time. The lack of specifications regarding radar waveforms and CCAP makes optimisation of the radar band more complicated in complex environments. The aim of the second part of the thesis is to investigate the potential of current mitigation techniques in such an environment without CCAP. In addition, new methods using V2X data have been proposed. These methods based on radar orientation, or based on Genetic Algorithms (GA) have been implemented to improve the waveform parameters selection process. In the situation where a CCAP is implemented, the avoidance of interference becomes easier to deal with. The third part of this thesis investigates simple interference mitigation strategies in case of a CCAP where the radar is organised in orthogonal resources that radars must share. By introducing orthogonal resources, the problem is also translated into a dynamic graph K-coloring problem whose optimal solution is approximated with two proposed metaheuristics based on Simulated Annealing (SA) and GA. From these results is then proposed a new mitigation strategy, based on V2X and radar orientation to minimise the amount of interference in case of CCAP. Finally, the complexity of such a multi-agent problem makes AI an interesting candidate for interference mitigation. In the last part of the thesis, Reinforcement Learning (RL) using Artificial Neural Network (ANN) is investigated for radar waveform parameters selection based on V2X data, and Graph Neural Networks (GNN) are used for radar line-of-sights estimations.À mesure que le nombre de véhicules équipés de systèmes avancés d'aide à la conduite (ADAS) augmente, il en va de même pour le nombre de véhicules équipés de radars automobiles. En effet, les études de marché estiment qu'en 2030, 50 % des véhicules seront équipés de radars automobiles. Cette croissance rapide du nombre de radars risque d'augmenter le risque d'interférences nuisibles. En effet, les spécifications des organismes de régulation (par exemple, l'ETSI) établissent des exigences en termes de puissance maximale et moyenne, mais ne prescrivent ni de formes d'onde radar spécifiques ni de politiques d'accès au canal commun (CCAP), rendant la coordination de l'utilisation de la bande de fréquence difficile. Actuellement, la réduction des interférences des radars automobiles repose principalement sur des techniques de traitement du signal et de randomisation des paramètres. Ces techniques fonctionnent bien aujourd'hui, en raison du faible nombre de radars, mais elles ne seront pas suffisantes dans une situation où la majorité des voitures seront équipées de radars. De nouvelles techniques de réduction des interférences deviennent importantes pour garantir le bon fonctionnement à long terme des radars et des systèmes ADAS de couche supérieure qui en dépendent dans cet environnement complexe. Cette thèse est consacrée à l'étude des capacités de réduction des interférences des méthodes actuelles dans de futurs environnements comportant beaucoup plus de radars, et à l'exploration de nouvelles méthodes utilisant la technologie Vehicle-To-Everything (V2X) comme canal de communication et l'intelligence artificielle (IA) pour minimiser les interférences et optimiser l'utilisation de la bande de fréquence. Comme aucune donnée n'est disponible pour étudier des situations de trafic routier à grande échelle avec des radars automobiles et des communications V2X, la première partie de cette thèse se concentre sur le simulateur en Python qui a été développé pour générer ces données. Le simulateur proposé vise à reproduire ce qui se produira avec différentes méthodes de réduction des interférences dans des scénarios réalistes. Cet objectif est atteint en utilisant des scénarios réalistes générés à l'aide du logiciel Simulation of Urban MObility (SUMO), tout en émettant des hypothèses raisonnables pour réduire le temps de calcul. L'objectif de la deuxième partie de la thèse est d'étudier le potentiel des techniques actuelles de réduction d' interférences dans un environnement sans CCAP. De plus, de nouvelles méthodes utilisant des données V2X ont été proposées. Ces méthodes basées sur l'orientation radar, ou basées sur des algorithmes génétiques (GA), ont été mises en œuvre pour améliorer le processus de sélection des paramètres des formes d'onde radar. Dans la situation où un CCAP est mis en œuvre, l'évitement des interférences devient plus facile à gérer. La troisième partie de cette thèse explore des stratégies simples de réduction des interférences en cas de CCAP et où la bande de fréquence est organisé en ressources orthogonales que les radars doivent se partager. En introduisant des ressources orthogonales, le problème est également traduit en un problème de K-coloration de graphe dynamique dont la solution optimale est approximée avec deux métaheuristiques proposées basées sur le recuit simulé (SA) et le GA. À partir de ces résultats, une nouvelle stratégie de réduction des interférences est proposée, basée sur le V2X et l'orientation des radars, afin de minimiser la quantité d'interférence en cas de CCAP. Enfin, la complexité d'un tel problème multi-agents fait de l'IA un candidat intéressant. Dans la dernière partie de la thèse, l'apprentissage par renforcement (RL) utilisant un réseau neuronal artificiel (ANN) est étudié pour la sélection des paramètres des formes d'onde radar basée sur les données V2X, et les réseaux neuronaux graphiques (GNN) sont utilisés pour les estimations de ligne de vue entre radars

    Détection d'attaques DDoS dans les réseaux

    No full text
    National audienceLa menace que représente la recrudescence des attaques par déni de service distribuées (DDoS) reste une préoccupation majeure pour de nombreux acteurs de l’Internet. Par l’envoi de nombreuses requêtes parasites, ces attaques cherchent à épuiser les ressources de la victime. Elle peuvent alors paralyser les systèmes ciblés, les empêchant de répondre aux requêtes légitimes.Avant de pouvoir être neutralisées, ces attaques doivent être identifiées l’aide de détecteurs capables de traiter le trafic en temps réel, aussi autonomes que possible et devant fournir les informations nécessaires à une décision appropriée. Bien que les méthodes d’apprentissage automatique récentes ont permis la création de détecteurs plus autonomes, les nombreux faux-positifs qu’ils produisent et les ressources de calcul conséquentes qu’ils nécessitent ont rendu ces détecteurs peu compétitifs. Ainsi, malgré l’engouement durable de la communauté scientifique pource sujet, aucun détecteur ne semble faire véritablement consensus. Pour répondre à cette problématique, nous proposons AATAC, un nouveau détecteur de DDoS autonome et temps réel, nécessitant peu de ressources de calcul. De part sa nature non supervisée, il peut également détecter des anomalies ou attaques inconnues jusqu’alors

    Détection d'attaques sur les équipements d'accès à Internet

    No full text
    Network anomalies, and specifically distributed denial of services attacks, are still an important threat to the Internet stakeholders. Detecting such anomalies requires dedicated tools, not only able to perform an accurate detection but also to meet the several constraints due to an industrial operation. Such constraints include, amongst others, the ability to run autonomously or to operate on sampled traffic. Unlike supervised or signature-based approaches, unsupervised detection do not require any kind of knowledge database on the monitored traffic. Such approaches rely on an autonomous characterization of the traffic in production. They require the intervention of the network administrator a posteriori, when it detects a deviation from the usual shape of the traffic. The main problem with unsupervised detection relies on the fact that building such characterization is complex, which might require significant amounts of computing resources. This requirement might be deterrent, especially when the detection should run on network devices that already have a significant workload. As a consequence, we propose a new unsupervised detection algorithm that aims at reducing the computing power required to run the detection. Its detection focuses on distributed denial of service attacks. Its processing is based upon the creation, at a regular interval, of traffic snapshots, which helps the diagnosis of detected anomalies. We evaluate the performances of the detector over two datasets to check its ability to accurately detect anomalies and to operate, in real time, with limited computing power resources. We also evaluate its performances over sampled traffic. The results we obtained are compared with those obtained with FastNetMon and UNADA.Les anomalies réseaux, et en particulier les attaques par déni de service distribuées, restent une menace considérable pour les acteurs de l'Internet. La détection de ces anomalies requiert des outils adaptés, capables non seulement d'opérer une détection correcte, mais aussi de répondre aux nombreuses contraintes liées à un fonctionnement dans un contexte industriel. Entre autres, la capacité d'un détecteur à opérer de manière autonome, ainsi qu'à fonctionner sur du trafic échantillonné sont des critères importants. Au contraire des approches supervisées ou par signatures, la détection non-supervisée des attaques ne requiert aucune forme de connaissance préalable sur les propriétés du trafic ou des anomalies. Cette approche repose sur une caractérisation autonome du trafic en production, et ne nécessite l'intervention de l'administrateur qu'à postériori, lorsqu’une déviation du trafic habituel est détectée. Le problème avec de telle approches reste que construire une telle caractérisation est algorithmiquement complexe, et peut donc nécessiter des ressources de calculs conséquentes. Cette exigence, notamment lorsque la détection doit fonctionner sur des équipements réseaux aux charges fonctionnelles déjà lourdes, est dissuasive quant à l'adoption de telles approches. Ce constat nous amène à proposer un nouvel algorithme de détection non-supervisé plus économe en ressources de calcul, visant en priorité les attaques par déni de service distribuées. Sa détection repose sur la création à intervalles réguliers d'instantanés du trafic, et produit des résultats simples à interpréter, aidant le diagnostic de l'administrateur. Nous évaluons les performances de notre algorithme sur deux jeux de données pour vérifier à la fois sa capacité à détecter correctement les anomalies sans lever de faux-positifs et sa capacité à fonctionner en temps réel avec des ressources de calcul limitées, ainsi que sur du trafic échantillonné. Les résultats obtenus sont comparés à ceux de deux autres détecteurs, FastNetMon et UNADA
    corecore