755 research outputs found

    Evaluation et design d'un protocole de traitement des données CT perfusés acquises en clinique et corrélation à l'évolution clinique

    Get PDF
    Contexte et but L'accident vasculaire cérébral (AVC) est la troisième cause de mortalité après les maladies cardiovasculaires et les cancers. Malgré les traitements et la prise en charge des patients, l'AVC reste la principale cause d'invalidité chez l'adulte. Actuellement, l'imagerie CT est largement utilisée dans la prise en charge en urgence de patient montrant des signes d'atteintes neurovasculaires. Cette étude vise, dans un premier temps, à trouver et à appliquer des techniques d'imagerie statistique sur des images de CT perfusée (pCT) et dans un second temps, à trouver des corrélations entre l'imagerie et la récupération clinique au niveau d'un groupe de patient. Ainsi, elle devrait d'une part permettre de faire le lien entre des images acquises dans la phase aigu, analysée individuellement et une analyse standardisée au niveau d'un groupe. D'autre part elle devrait permettre de faire un lien entre les images et la sévérité clinique de l'AVC en fonction l'évolution du patient. Données et méthode Les pCT et les données clinique on été récolté afin créer une cohorte de 39 sujets patients ayant eut un accident vasculaire cérébral (AVC) ischémique de l'artère cérébrale moyenne (ACM) et 29 sujets contrôles ayant eut une imagerie CT cérébrale sans AVC supratentoriel. Des cartes de perfusions MTT ont été créé de façon standard à partir des premiers CT perfusé acquis après l'évènement clinique suspectant un AVC. Ensuite toutes nos images ont été normalisées afin de permettre une analyse statistique de groupe. A partir de cela, nous avons calculé le volume de la lésion ischémique (infarcissement précoce & pénombre) des sujets patients de manière standardisée pour enfin la corréler à des scores mesurant la présentation et récupération clinique (scores National Institute of Health Stroke Scale, NIHSS et score de Rankin modifié, mRs à différents moments). Résultats Les explorations techniques des pCT de 39 sujets avec AVC dans le territoire de l'ACM et de 29 contrôles ont permis de développer un protocole standardisé du traitement des images avec extraction semi-automatisée des volumes d'ischémie. Sur le territoire de l'ACM, il a été trouvé une corrélation linaire entre le volume de tissus ischémique mesuré dans la phase aigu et de la récupération clinique mesuré avec le mRs à la sortie, à 3 mois et à 12 mois. Cette corrélation semble s'accentuer avec le temps. Le score NIHSS lui, montre une relation inverse mais non-significative avec le volume de la lésion. Conclusion A partir d'une cohorte de patients victime d'un AVC aigu sur le territoire de l'ACM, une mesure standardisée du volume d'ischémie cérébral a été développée. Dans cette petite cohorte de patients, une relation proportionnelle entre le volume et la récupération à long terme a été démontrée

    Comment une théorie intermédiaire en soins infirmiers empruntant des notions en sciences humaines permet d'appréhender le taux d'observance de l'hygiène des mains chez les infirmières: travail de Bachelor

    Get PDF
    Contexte : Etant un phénomène mondial et d’une grande ampleur, les infections nosocomiales sont de réels problèmes de santé publique et leurs taux restent assez élevés. Depuis l’invention de la solution hydro-alcoolique, les infections nosocomiales (IN) manuportées ont diminué, mais pas de façon significative. Objectif : Mise en évidence de facteurs influençant l’observance de l’hygiène des mains des infirmières et des autres professionnels de la santé. Méthode : Nous avons fait une sélection d’articles scientifiques sur les dix dernières années dans les bases de données tels que Cinhal et Pubmed. Concernant l’ancrage disciplinaire, notre choix s’est porté sur la théorie Synergy Model de l’Association américaine des infirmières en soins critiques de Sonya Hardin. Nous avons également emprunté et développé certaines notions utiles à notre travail dans les sciences humaines. Résultat : Malgré toutes les mesures mises en place, l’observance de l’hygiène des mains par les professionnels de la santé n’est pas toujours adéquatement suivie. Les causes mises en évidence sont l’environnement du travail, la pression du groupe, la banalisation et la non compréhension des protocoles. De plus, la représentation personnelle des soignants sur le risque joue également un rôle sur l’observance de l’hygiène des mains

    Analyse des performance des systèmes de communications personnelles (SCP) terrestres utilisant l'accès multiple par répartition de codes (AMRC)

    Get PDF
    Problématique et évolution des systèmes de communications cellulaires -- Caractéristiques de propagation du signal dans le canal radiomobile -- Notion d'accès multiples -- Étude des interférences -- Analyse des performances des SCP terrestres utilisant l'amrc -- Analyse des performances en exploitant les paramètres de L'amr

    Le Réseau des observatoires de l'environnement en Afrique

    Get PDF

    L'analyse statistique bayésienne de données toxicocinétiques

    Get PDF
    National audienceBayesian statistical analysis of toxicokinetic data Risk assessment of chemicals requires toxicokinetic studies to determine the association between exposure and the quantity of toxin that reaches target tissues or cells. To characterize this link, experimental data about the agent's spatiotemporal distribution in the body (e.g., blood concentrations at various times) can be collected and analyzed with parametric models (called toxicokinetic or TK models). These models are generally compartmental and can be based on physiology (PBTK models). Appropriate statistical treatment allows fitting TK/PBTK models to the data. Bayesian analysis takes into account and estimates the uncertainty and variability inherent in TK data. It can integrate prior information on parameter values into the estimation process, thus limiting the need for experimental exposures. In this paper, we detail the Bayesian process of TK analysis, including the estimation (or calibration) of parameters and the checking and validation of models. The process can be completed by choosing between competing models or optimizing the design of experimental protocols. To illustrate this process, we analyze and model the toxicokinetics of 1,3-butadiene, a potential human carcinogen.L'évaluation de la toxicité des produits chimiques passe par une étude de leur toxicocinétique. Cette dernière vise à établir un lien entre l'exposition à une substance toxique et la quantité de celle-ci atteignant les tissus cibles de l'action toxique. Pour ce faire, l'expérimentation recueille des données de distribution spatiale et temporelle de la substance dans l'organisme étudié (par exemple, des mesures de concentration sanguine en différents instants). Il est ensuite possible de construire des modèles mathématiques paramétrés (modèles toxicocinétiques) pour caractériser la relation entre l'exposition et la quantité interne de toxique. Ces modèles sont généralement des modèles compartimentaux et reposent fréquemment sur une description physiologique de l'organisme (modèle PBPK). Des traitements statistiques appropriés permettent d'ajuster ces modèles à l'aide des données expérimentales. Nous décrivons comment l'analyse bayésienne permet de prendre en compte et d'estimer l'incertitude et la variabilité inhérentes aux données toxicocinétiques. Elle intègre l'information disponible a priori sur la valeur des paramètres, limitant, de ce fait, le nombre d'expositions expérimentales nécessaires. Le processus bayésien d'analyse de données comprend l'estimation des paramètres (calibration), la vérification et la validation des modèles. Ce processus peut ensuite être complété par le choix entre plusieurs modèles construits à partir d'hypothèses différentes ou l'optimisation de nouveaux protocoles expérimentaux. Une illustration de l'approche bayésienne est proposée pour le cas du 1,3-butadiène, substance chimique considérée comme potentiellement carcinogène pour l'homme

    Le géomarketing et la localisation : pour la faisabilité commerciale d'un produit forestier canadien à l’échelle des régions métropolitaines canado-américaines

    Full text link
    Dans le contexte actuel de la mondialisation des marchés, l'évaluation des facteurs marchands peut signifier l’échec ou le succès dans le monde des affaires. En raison de la libre circulation des biens et des services à travers le monde, les effets de la concurrence et des tendances de saturation de marché deviennent de plus en plus perceptibles de nos jours. Synthèse de la cartographie, de la géographie et de la mercatique (en anglais marketing), un important allié apparait dans le scénario de l’analyse de marché pour mieux guider les entreprises. Le géomarketing rassemble des techniques d’analyse spatiale des données marketing à l’aide entre autres, d’un système d’information géographique (SIG). En définition, le géomarketing il s’agit d’une démarche marketing reposant sur l'analyse du comportement du consommateur en tenant compte des notions d'espaces et des nuances de marché qu'une action commerciale ou une campagne marketing peut dégager sur une zone géographique. Cette nouvelle discipline permet de segmenter et qualifier géographiquement la potentialité d’un marché et de déterminer la localisation optimale selon les caractéristiques sociodémographiques, comportementales ou économiques du marché-étude. Parmi les applications du géomarketing, on peut citer l’identification de la compétition, des marchés potentiels, des emplacements optimaux et le développement d’un réseau de distribution d’un produit ou services. Toutes ces activités sont reliées à la compétitivité, que désigne la capacité à occuper une position forte sur un marché. Cette recherche utilisera des techniques d’analyse spatiale géomarketing pour cibler des marchés potentiels à un produit d’isolation innovant produit à partir de résidus forestiers. L’étude propose une méthode basée sur l’analyse géographique et spatiale pour déterminer l’emplacement et la distribution afin de maximiser l’efficacité et la pénétration du marché par le produit.In the current context of globalization of markets, assessment of market factors may represent the failure or success in today's business world. Due to the free movement of goods and services around the world, the effects of competition and market saturation tendencies become increasingly noticeable nowadays. Synthesis of cartography, geography and marketing, an important ally appears in the scenario of market analyses to guide enterprises. The geomarketing brings a set of spatial analysis techniques on marketing data using, among others, a geographic information system (GIS). This new discipline allows segmenting and qualifying the potential of a market and determine the optimal location according to sociodemographic, behavioral or economic characteristics of the market-study. In definition, geomarketing is a marketing approach based on the analysis of consumer behavior taking into account the notions of spaces and the nuances of market that a commercial action or a marketing campaign can generate on a zone geographical. Among the applications of the geomarketing, the identification of competition, potential markets, optimal locations and development of a distribution network of products or services. All these activities are related to competitiveness, which refers to the ability to occupy a strong position in a market. This research will use geomarketing spatial analysis techniques to target potential markets to an innovative insulation product produced from forest residues. The study proposes a method based on geographic and spatial analysis to determine location and distribution in order to maximize efficiency and market penetration by the product

    Décisions multicritères dans les réseaux de télécommunications autonomes

    Get PDF
    Les réseaux de données actuels sont des entités complexes qui opèrent dans des environnements dynamiques et hétérogènes. L'architecture et les protocoles de ces réseaux doivent faire face à plusieurs défis, notamment l'adaptation dynamique et la prise de décisions autonome en présence de plusieurs critères, souvent contradictoires, tels que le délai, le taux de perte, la gigue, l'énergie, etc. Cependant, les problèmes de décision multicritère ont généralement de multiples solutions. Ces problèmes sont résolus par des méthodes qui utilisent des paramètres dont les choix ont des conséquences difficiles à prévoir. De ce fait, la plupart des méthodes de décision multicritère proposées dans la littérature supposent la présence d'un décideur qui guide le processus de décision. Enfin, le choix des paramètres suppose souvent une interactivité avec le décideur, ce qui est difficile, voire impossible, à envisager dans un contexte autonome. Dans cette thèse, nous proposons une nouvelle méthode de décision multicritère adaptée aux systèmes autonomes en général et aux réseaux autonomes en particulier. La méthode de décision multicritère de type poupée russe'' que nous introduisons utilise un ensemble de boîtes de qualité englobantes, définies dans l'espace des critères, afin d'estimer une large gamme de fonctions d'utilité. D'une part, la méthode proposée s'adapte au caractère dynamique des réseaux autonomes, afin de maximiser la satisfaction des utilisateurs. D'autre part, elle utilise des paramètres qui sont soit directement déduits de faits objectifs, tels que des normes ou spécifications techniques, soit obtenus à l'aide d'une expérience de type MOS (Mean Opinion Score) au moyen d'une méthode de classification automatique. Nous avons testé les performances de la méthode de la poupée russe sur un cas pratique de routage dans les réseaux ad hoc sans fil. Les expérimentations ont montré que le routage réalisé avec la méthode de la poupée russe est toujours meilleur ou similaire à celui de la méthode de la somme pondérée qui est largement utilisée. Cela est dû à la capacité d'adaptation de la décision offerte par cette nouvelle méthode de décision multicritèreToday's data networks are complex entities that operate in dynamic and heterogeneous environments. The architecture and protocols of these networks have to face several challenges such as dynamic adaptation and autonomous decision-making in the presence of several, often conflicting, criteria such as delay, loss rate, jitter, energy, etc. However, multicriteria decision making problems usually have multiple solutions. These problems are solved by methods that use parameters whose choices have consequences difficult to predict. Thus, most multicriteria decision making methods proposed in the literature assume the presence of a decision maker who guides the decision process. Finally, the choice of parameter values often involves an interaction with the decision maker, which is difficult or impossible to do in an autonomous context. In this thesis, we propose a new multicriteria decision making method suitable for autonomous systems in general and autonomous networks in particular. The Russian doll like method we propose uses a set of nested quality boxes (like Russian dolls) defined in the criteria space, in order to approximate a wide range of utility functions. First, the proposed method adapts to the dynamic nature of autonomous networks in order to maximize user satisfaction. Second, it uses parameters that are directly deduced from objective facts such as technical standards or specifications, or obtained from a MOS (Mean Opinion Score) experiment using an automatic classification method. We tested the performance of the Russian doll like method in a case of routing in wireless ad hoc networks. Experiments have shown that routing done with the Russian doll like method is always better or similar to the one done by the weighted sum method which is widely used. This is due to the adaptation ability of the decision provided by this new multicriteria decision making methodEVRY-INT (912282302) / SudocSudocFranceF

    Le numérique, le travail, et la vie

    Get PDF
    National audienceDigital technology stood out as the main technological revolution of the 21th century. The cognitive capacities of electronic devices and their distribution in the whole of the population reaches an unpublished stadium, which overtakes the domain of the information communication, but extends to all the human activities, leading to the emergence of a new economic and social order. Resting on the anthropological distinctions established by Hannah Arendt, this article suggests showing in what Information and Communications Technology are causing a new relationship to the world.Le numérique s'est imposé comme la principale révolution technologique du 21 e siècle. Les capacités cognitives des appareils électroniques et leur diffusion dans l'ensemble de la population ont atteint un stade inédit qui dépasse le domaine de l'information communication, mais s'étend à l'ensemble des activités humaines, conduisant à l'émergence d'un nouvel ordre économique et social. En s'appuyant sur les distinctions anthropologiques établies par Hannah Arendt, cet article propose de montrer en quoi les Nouvelles Technologies de l'Information conditionnent un nouveau rapport au monde qui remet en cause les fondements d'une éthique humaniste
    corecore