79 research outputs found

    Murine Norovirus: Propagation, Quantification, and Genetic Manipulation

    Full text link
    Murine norovirus (MNV) is a positive- sense, plus- stranded RNA virus in the Caliciviridae family. It is the most common pathogen in biomedical research colonies. MNV is also related to the human noroviruses, which cause the majority of nonbacterial gastroenteritis worldwide. Like the human noroviruses, MNV is an enteric virus that replicates in the intestine and is transmitted by the fecal- oral route. MNV replicates in murine macrophages and dendritic cells in cells in culture and in the murine host. This virus is often used to study mechanisms in norovirus biology, because human noroviruses are refractory to growth in cell culture. MNV combines the availability of a cell culture and reverse genetics system with the ability to study infection in the native host. Herein, we describe a panel of techniques that are commonly used to study MNV biology. Curr. Protoc. Microbiol 33:15K.2.1- 15K.2.61. © 2014 by John Wiley & Sons, Inc.Peer Reviewedhttp://deepblue.lib.umich.edu/bitstream/2027.42/163819/1/cpmc15k02.pd

    Initial adherence of EPEC, EHEC and VTEC to host cells

    Get PDF
    Initial adherence to host cells is the first step of the infection of enteropathogenic Escherichia coli (EPEC), enterohaemorrhagic Escherichia coli (EHEC) and verotoxigenic Escherichia coli (VTEC) strains. The importance of this step in the infection resides in the fact that (1) adherence is the first contact between bacteria and intestinal cells without which the other steps cannot occur and (2) adherence is the basis of host specificity for a lot of pathogens. This review describes the initial adhesins of the EPEC, EHEC and VTEC strains. During the last few years, several new adhesins and putative colonisation factors have been described, especially in EHEC strains. Only a few adhesins (BfpA, AF/R1, AF/R2, Ral, F18 adhesins) appear to be host and pathotype specific. The others are found in more than one species and/or pathotype (EPEC, EHEC, VTEC). Initial adherence of EPEC, EHEC and VTEC strains to host cells is probably mediated by multiple mechanisms

    Deranged sodium to sudden death

    Get PDF
    In February 2014, a group of scientists convened as part of the University of California Davis Cardiovascular Symposium to bring together experimental and mathematical modelling perspectives and discuss points of consensus and controversy on the topic of sodium in the heart. This paper summarizes the topics of presentation and discussion from the symposium, with a focus on the role of aberrant sodium channels and abnormal sodium homeostasis in cardiac arrhythmias and pharmacotherapy from the subcellular scale to the whole heart. Two following papers focus on Na⁺ channel structure, function and regulation, and Na⁺/Ca²⁺ exchange and Na⁺/K⁺ ATPase. The UC Davis Cardiovascular Symposium is a biannual event that aims to bring together leading experts in subfields of cardiovascular biomedicine to focus on topics of importance to the field. The focus on Na⁺ in the 2014 symposium stemmed from the multitude of recent studies that point to the importance of maintaining Na⁺ homeostasis in the heart, as disruption of homeostatic processes are increasingly identified in cardiac disease states. Understanding how disruption in cardiac Na⁺-based processes leads to derangement in multiple cardiac components at the level of the cell and to then connect these perturbations to emergent behaviour in the heart to cause disease is a critical area of research. The ubiquity of disruption of Na⁺ channels and Na⁺ homeostasis in cardiac disorders of excitability and mechanics emphasizes the importance of a fundamental understanding of the associated mechanisms and disease processes to ultimately reveal new targets for human therapy.Centro de Investigaciones Cardiovasculare

    Building Drawings

    No full text
    info:eu-repo/semantics/nonPublishe

    Calibration of an Agent-based Influenza Model

    No full text
    Zusammenfassung in englischer SpracheAbweichender Titel nach Übersetzung der Verfasserin/des VerfassersAgentenbasierte Modellierung wird in der Modellbildung und Simulation immer öfter verwendet. Demzufolge ist es wichtig, die üblichen Methoden zur Qualitätsüberprüfung eines Modells auf ihre Anwendbarkeit auf agentenbasierte Modelle zu überprüfen. Diese Arbeit beschäftigt sich mit der Kalibrierung eines agentenbasierten Modells. Dabei wird zuerst auf allgemeine Probleme eingegangen, die bei dieser Aufgabestellung auftreten. Es werden zwei Kalibrierungsalgorithmen vorgestellt, die zur Kalibrierung herangezogen werden können: das Simulated Annealing und ein evolutionärer Algorithmus. Bei beiden werden verschiedene Varianten und Konfigurationen besprochen und, soweit dies bekannt ist, auf das Konvergenzverhalten eingegangen. Die Leistung der beiden Algorithmen wird an kleinen Beispielmodellen getestet. Es handelt sich dabei um ein SIR- und um ein SIRS-Modell, die den Verlauf einer infektiösen Krankheit simulieren. Bei diesen Tests wird versucht eine geeignete Konfiguration der Kalibrierungsalgorithmen zu bestimmen. Es zeigt sich, dass die beiden Kalibrierungsalgorithmen nur bei einem der beiden Beispielmodelle vergleichbar gute Resultate liefern. Bei dem zweiten Modell werden nur beim evolutionären Algorithmus gute Ergebnisse erzielt. Ein Problem, das bei allen Kalibrierungsdurchläufen auftaucht, stellt die lange Rechenzeit dar. Deswegen wird eine mögliche Methode zur Reduzierung der Laufzeit vorgestellt. Sie besteht darin, die Anzahl der in der Simulation benutzten Agenten während der Kalibrierung zu verändern. Anfangs wird nur eine geringe Agentenanzahl benutzt um in kurzer Zeit mehrere Simulationen durchführen zu können. Die Simulationen mit einer geringen Agentenanzahl weisen jedoch eine größere Varianz auf, sodass die Resultate mit Unsicherheiten behaftet sind. Während der Kalibrierung wird die Agentenzahl progressiv auf ein gewünschtes Maß erhöht, um die Unsicherheit der Resultate zu verringern. Verschiedene Konfigurationen dieser Vorgehensweise werden ebenfalls an den Beispielmodellen getestet und ausgewertet. Auch bei dieser Methode ist der evolutionäre Algorithmus erfolgreicher und es ist möglich die benötigte Laufzeit um etwa die Hälfte zu reduzieren. Die erhaltenen Erkenntnisse werden schlussendlich benutzt, um ein komplexeres agentenbasiertes Modell zu kalibrieren. Hierbei handelt es sich um ein Influenzamodell, das die Ausbreitung der Grippe innerhalb der österreichischen Bevölkerung simuliert. Es wurden mehrere erfolgreiche Kalibrierungen mittels evolutionärem Algorithmus durchgeführt. Hierbei konnte zudem festgestellt werden, dass die berechneten Parameterwerte sehr unterschiedlich sind und demnach mehrere gleichwertige, lokale Minima existieren.Agent-based modelling has experienced increasing application in several fields since it offers many benefits over other modelling methods. Therefore it is important to verifiy whether quality assessment methods can be applied on agent-based models. This master's thesis discusses the problem of calibrating such models. Two algorithms which can be used to perform this task are presented: simulated annealing and an evolutionary algorithm. For each algorithm, different versions and configurations, as well as the convergence behaviour, are discussed. The performance of these algorithms is tested on different example models: an SIR and an SIRS model. These models are used to describe the spreading of an infectious disease. It can be observed that simulated annealing produces good results only on one of the example models, while the evolutionary algorithm performs successfull calibrations for all of them. Unfortunately, all calibrations require a lot of computing time. A possible solution to this problem is presented. It consists of varying the number of agents used in the simulation during the calibration. At the beginning, only a small amout of agents is used in order to perform many simulation runs in a short period of time. However, if a low agent count is used, the simulations exhibit a greater variability. During the course of the calibration, the agent count is progressively increased until it reaches the targeted amount. This way, the variability of the results occuring when a low agent count is used, is being reduced. Different configurations of this method are beeing tested on the example model. It shows that the evolutionary algorithm provides a better performance than simulated annealing and it is possible to cut the computing time in half. Ultimately, the findings are used to calibrate a more complex agent-based model simulating an influenza epidemic in the Austrian population. Several successful calibrations have been performed using the evolutionary algorithm. The calculated parameter sets turned out to be very diverse. Therefore it is plausible that several comparable local minima exist.6

    Michèle Fruyt, Problèmes méthodologiques de dérivation à propos des suffixes latins en . . . cus, Paris, Klincksieck / Publications de la Sorbonne (Études et Commentaires 99), 1986

    No full text
    Rippinger Léon. Michèle Fruyt, Problèmes méthodologiques de dérivation à propos des suffixes latins en . . cus, Paris, Klincksieck / Publications de la Sorbonne (Études et Commentaires 99), 1986. In: L'Information Grammaticale, N. 34, 1987. pp. 50-51

    Jean-Nicolas-Louis Durand et la représentation comme instrument -- Architecture

    No full text
    Le travail de fin d’études développé porte un regard contemporain sur les moyens de représentation de l’architecte-enseignant polytechnicien Jean-Nicolas-Louis Durand (1760-1834). Il s’agit d’une étude approfondie du dessin architectural du maître parisien comme véhicule et instrument de la mise en œuvre de ses théories. L’ensemble de la recherche de Durand avait pour finalité de développer et d’enseigner la Marche à suivre dans la composition d’un projet quelconque, c’est-à-dire un mécanisme de composition qui est une suite d’opérations graphiques permettant de composer un édifice à partir d’un programme donné. Notre approche était alors que l’œuvre de Durand est une source de paradigmes toujours d’actualité et que son interrogation contribue à une réflexion sur la pratique paramétrique en architecture. Selon notre hypothèse, le mécanisme de composition durandien peut être aujourd’hui compris, d’un certain point de vue, comme une application archaïque d’opérations paramétriques.La première partie de la recherche se concentre sur l’étude de l’ensemble de la contribution de Durand au sein de l’École Polytechnique, du Recueil et Parallèle de 1801 au Nouveau Précis des Leçons d’Architecture de 1813, augmenté de la Partie Graphique des Cours d’Architecture en 1821. L’étude de l’instrumentalisation entreprise par Durand consiste à relever, par l’analyse des textes et particulièrement des planches, la manière dont les moyens de représentation étaient capables de transformer le regard sur l’objet architectural pour finalement faire fonctionner son mécanisme de composition. Par la mobilisation de références théoriques et historiques dans l’étude des caractéristiques graphiques des planches, il était possible de cerner l’utilisation du dessin dans un but de rationaliser l’architecture, la normer, la préciser, la manipuler et d’y exacerber le mécanisme.La deuxième partie de la recherche est une mise en œuvre expérimentale par des moyens informatiques contemporains de la Marche à suivre enseignée par Durand depuis 1821. Le modèle procédural numérique développé pour mettre en œuvre le mécanisme de composition se base sur l’encodage en langage Python d’une suite d’opérations précises appliquées à des variables. Par l’appel de primitives graphiques, le script ainsi obtenu génère des résultats visibles dans Blender, un logiciel de modélisation 3 D. Le but est double : explorer la méthode en elle-même, en la poussant dans des extrêmes que Durand n’aurait pas osé imaginer, ainsi qu’avancer un référent historique susceptible de questionner certaines implications des applications paramétriques actuelles en architecture.Une implication importante soulevée par cette recherche porte sur la conséquence directe de l’instrumentalisation de la représentation, qui est décrite comme nécessaire à l’approche paramétrique. Là où résidaient dans le dessin un terrain philosophique, le mythe et les croyances, est instauré à présent un cadre autoréférentiel, scientifique et d’une valeur exclusivement opérationnelle. Le développement de l’architecture numérique, et plus particulièrement des approches algorithmiques, a finalement accentué cette tendance.info:eu-repo/semantics/nonPublishe
    corecore