39 research outputs found

    Evaluation of Pool-based Testing Approaches to Enable Population-wide Screening for COVID-19

    Full text link
    Background: Rapid testing for an infection is paramount during a pandemic to prevent continued viral spread and excess morbidity and mortality. This study aimed to determine whether alternative testing strategies based on sample pooling can increase the speed and throughput of screening for SARS-CoV-2. Methods: A mathematical modelling approach was chosen to simulate six different testing strategies based on key input parameters (infection rate, test characteristics, population size, testing capacity etc.). The situations in five countries (US, DE, UK, IT and SG) currently experiencing COVID-19 outbreaks were simulated to reflect a broad variety of population sizes and testing capacities. The primary study outcome measurements that were finalised prior to any data collection were time and number of tests required; number of cases identified; and number of false positives. Findings: The performance of all tested methods depends on the input parameters, i.e. the specific circumstances of a screening campaign. To screen one tenth of each country's population at an infection rate of 1% - e.g. when prioritising frontline medical staff and public workers -, realistic optimised testing strategies enable such a campaign to be completed in ca. 29 days in the US, 71 in the UK, 25 in Singapore, 17 in Italy and 10 in Germany (ca. eight times faster compared to individual testing). When infection rates are considerably lower, or when employing an optimal, yet logistically more complex pooling method, the gains are more pronounced. Pool-based approaches also reduces the number of false positive diagnoses by 50%. Interpretation: The results of this study provide a clear rationale for adoption of pool-based testing strategies to increase speed and throughput of testing for SARS-CoV-2. The current individual testing approach unnecessarily wastes valuable time and resources.Comment: Revision; 16 pages, 3 figures, 2 tables, 2 supplementary figure

    RaQuN: a generic and scalable n-way model matching algorithm

    Get PDF
    Model matching algorithms are used to identify common elements in input models, which is a fundamental precondition for many software engineering tasks, such as merging software variants or views. If there are multiple input models, an n-way matching algorithm that simultaneously processes all models typically produces better results than the sequential application of two-way matching algorithms. However, existing algorithms for n-way matching do not scale well, as the computational effort grows fast in the number of models and their size. We propose a scalable n-way model matching algorithm, which uses multi-dimensional search trees for efficiently finding suitable match candidates through range queries. We implemented our generic algorithm named RaQuN (Range Queries on input models) in Java and empirically evaluate the matching quality and runtime performance on several datasets of different origins and model types. Compared to the state of the art, our experimental results show a performance improvement by an order of magnitude, while delivering matching results of better quality.Peer Reviewe

    Serum neurofilament light chain is a biomarker of acute and chronic neuronal damage in early multiple sclerosis

    Get PDF
    Background Monitoring neuronal injury remains one key challenge in early relapsing-remitting multiple sclerosis (RRMS) patients. Upon axonal damage, neurofilament – a major component of the neuro-axonal cytoskeleton – is released into the cerebrospinal fluid (CSF) and subsequently peripheral blood. Objective To investigate the relevance of serum neurofilament light chain (sNfL) for acute and chronic axonal damage in early RRMS. Methods sNfL levels were determined in 74 patients (63 therapy-naive) with recently diagnosed clinically isolated syndrome (CIS) or RRMS using Single Molecule Array technology. Standardized 3 T magnetic resonance imaging (MRI) was performed at baseline and 1–3 consecutive follow-ups (42 patients; range: 6–37 months). Results Baseline sNfL correlated significantly with T2 lesion volume (r = 0.555, p < 0.0001). There was no correlation between baseline sNfL and age, Expanded Disability Status Scale (EDSS) score or other calculated MRI measures. However, T2 lesion volume increased (r = 0.67, p < 0.0001) and brain parenchymal volume decreased more rapidly in patients with higher baseline sNfL (r = −0.623, p = 0.0004). Gd-enhancing lesions correlated positively with sNfL levels. Initiation of disease-modifying treatment led to a significant decrease in sNfL levels. Conclusion sNfL indicates acute inflammation as demonstrated by correlation with Gd+ lesions. It is a promising biomarker for neuro-axonal damage in early multiple sclerosis (MS) patients, since higher baseline sNfL levels predicted future brain atrophy within 2 years

    Improved prediction of early cognitive impairment in multiple sclerosis combining blood and imaging biomarkers

    Get PDF
    Disability in multiple sclerosis is generally classified by sensory and motor symptoms, yet cognitive impairment has been identified as a frequent manifestation already in the early disease stages. Imaging- and more recently blood-based biomarkers have become increasingly important for understanding cognitive decline associated with multiple sclerosis. Thus, we sought to determine the prognostic utility of serum neurofilament light chain levels alone and in combination with MRI markers by examining their ability to predict cognitive impairment in early multiple sclerosis. A comprehensive and detailed assessment of 152 early multiple sclerosis patients (Expanded Disability Status Scale: 1.3 ± 1.2, mean age: 33.0 ± 10.0 years) was performed, which included serum neurofilament light chain measurement, MRI markers (i.e. T2-hyperintense lesion volume and grey matter volume) acquisition and completion of a set of cognitive tests (Symbol Digits Modalities Test, Paced Auditory Serial Addition Test, Verbal Learning and Memory Test) and mood questionnaires (Hospital Anxiety and Depression scale, Fatigue Scale for Motor and Cognitive Functions). Support vector regression, a branch of unsupervised machine learning, was applied to test serum neurofilament light chain and combination models of biomarkers for the prediction of neuropsychological test performance. The support vector regression results were validated in a replication cohort of 101 early multiple sclerosis patients (Expanded Disability Status Scale: 1.1 ± 1.2, mean age: 34.4 ± 10.6 years). Higher serum neurofilament light chain levels were associated with worse Symbol Digits Modalities Test scores after adjusting for age, sex Expanded Disability Status Scale, disease duration and disease-modifying therapy (B = −0.561; SE = 0.192; P = 0.004; 95% CI = −0.940 to −0.182). Besides this association, serum neurofilament light chain levels were not linked to any other cognitive or mood measures (all P-values > 0.05). The tripartite combination of serum neurofilament light chain levels, lesion volume and grey matter volume showed a cross-validated accuracy of 88.7% (90.8% in the replication cohort) in predicting Symbol Digits Modalities Test performance in the support vector regression approach, and outperformed each single biomarker (accuracy range: 68.6–75.6% and 68.9–77.8% in the replication cohort), as well as the dual biomarker combinations (accuracy range: 71.8–82.3% and 72.6–85.6% in the replication cohort). Taken together, early neuro-axonal loss reflects worse information processing speed, the key deficit underlying cognitive dysfunction in multiple sclerosis. Our findings demonstrate that combining blood and imaging measures improves the accuracy of predicting cognitive impairment, highlighting the clinical utility of cross-modal biomarkers in multiple sclerosis

    Serum neurofilament levels reflect outer retinal layer changes in multiple sclerosis

    Get PDF
    Background:Serum neurofilament light chain (sNfL) and distinct intra-retinal layers are both promising biomarkers of neuro-axonal injury in multiple sclerosis (MS). We aimed to unravel the association of both markers in early MS, having identified that neurofilament has a distinct immunohistochemical expression pattern among intra-retinal layers. Methods:Three-dimensional (3D) spectral domain macular optical coherence tomography scans and sNfL levels were investigated in 156 early MS patients (female/male: 109/47, mean age: 33.3 ± 9.5 years, mean disease duration: 2.0 ± 3.3 years). Out of the whole cohort, 110 patients had no history of optic neuritis (NHON) and 46 patients had a previous history of optic neuritis (HON). In addition, a subgroup of patients (n = 38) was studied longitudinally over 2 years. Support vector machine analysis was applied to test a regression model for significant changes. Results:In our cohort, HON patients had a thinner outer plexiform layer (OPL) volume compared to NHON patients (B = −0.016, SE = 0.006, p = 0.013). Higher sNfL levels were significantly associated with thinner OPL volumes in HON patients (B = −6.734, SE = 2.514, p = 0.011). This finding was corroborated in the longitudinal subanalysis by the association of higher sNfL levels with OPL atrophy (B = 5.974, SE = 2.420, p = 0.019). sNfL levels were 75.7% accurate at predicting OPL volume in the supervised machine learning. Conclusions:In summary, sNfL levels were a good predictor of future outer retinal thinning in MS. Changes within the neurofilament-rich OPL could be considered as an additional retinal marker linked to MS neurodegeneration

    NfL predicts relapse-free progression in a longitudinal multiple sclerosis cohort study

    Get PDF
    Background Easily accessible biomarkers enabling the identification of those patients with multiple sclerosis (MS) who will accumulate irreversible disability in the long term are essential to guide early therapeutic decisions. We here examine the utility of serum neurofilament light chain (sNfL) for forecasting relapse-free disability progression and conversion to secondary progressive MS (SPMS) in the prospective Neurofilament and longterm outcome in MS (NaloMS) cohort. Methods The predictive ability of sNfL at Baseline and sNfL follow-up (FU)/ Baseline (BL) ratio with regard to disability progression was assessed within a development cohort (NaloMS, n=196 patients with relapsing-remitting MS (RRMS) or clinically isolated syndrome) and validated with an external independent cohort (DĂŒsseldorf, Essen, n=204). Both relapse-free EDSS-progression (RFP: inflammatory-independent EDSS-increase 12 months prior to FU) and SPMS-transition (minimum EDSS-score of 3.0) were investigated. Findings During the study period, 17% (n=34) of NaloMS patients suffered from RFP and 14% (n=27) converted to SPMS at FU (validation cohort RFP n=42, SPMS-conversion n=24). sNfL at BL was increased in patients with RFP (10.8 pg/ml (interquartile range (IQR) 7.7-15.0) vs. 7.2 pg/ml (4.5-12.5), p<0.017). In a multivariable logistic regression model, increased sNfL levels at BL (Odds Ratio (OR) 1.02, 95% confidence interval (CI) 1.01-1.04, p=0.012) remained an independent risk factor for RFP and predicted individual RFP risk with an accuracy of 82% (NaloMS) and 83% (validation cohort) as revealed by support vector machine. In addition, the sNfL FU/BL ratio was increased in SPMS-converters (1.16 (0.89-1.70) vs. 0.96 (0.75-1.23), p=0.011). This was confirmed by a multivariable logistic regression model, as sNfL FU/BL ratio remained in the model (OR 1.476, 95%CI 1.078-2,019, p=0.015) and individual sNfL FU/BL ratios showed a predictive accuracy of 72% in NaloMS (63% in the validation cohort) as revealed by machine learning. Interpretation sNfL levels at baseline predict relapse-free disability progression in a prospective longitudinal cohort study 6 years later. While prediction was confirmed in an independent cohort, sNfL further discriminates patients with SPMS at follow-up and supports early identification of patients at risk for later SPMS conversion. Funding This work was supported by the German Research Council (CRC-TR-128), Else Kröner Fresenius Foundation and Hertie-Stiftung

    Datenintegration ĂŒber semantische Bauwerksmodellierung fĂŒr energetische Simulationen

    No full text
    Bei der DurchfĂŒhrung energetischer Simulationen im Rahmen von BIM stammen die benö-tigten Informationen oft aus verteilten Quellen. Um die Daten zusammenzufĂŒhren und nutzbar zu machen, soll ein Ansatz konzipiert werden, der es ermöglicht, mit Hilfe von Ontologien Informationen aus einem digitalen GebĂ€udemodell auszulesen und fĂŒr die wei-tere Verarbeitung zugĂ€nglich zu machen. Zudem wird die Eignung des IFC-Schemas fĂŒr die Arbeit mit Semantic Web und eine mögliche Umsetzung mit Java untersucht

    Ontologie-gestĂŒtzte Erzeugung einer Datenbasis fĂŒr energetische Simulationen aus verteilten Informationsquellen

    No full text
    WĂ€hrend die Bundesrepublik Deutschland im internationalen Vergleich bereits zu den fĂŒhrenden Nationen im Bereich der Forschung, Entwicklung und Nutzung erneuerbarer Energien zĂ€hlt, sind im Rahmen der angestrebten Energiewende ehrgeizige Ziele gesteckt. So sieht das zugrunde liegende Erneuerbare-Energien-Gesetz (EEG) vor, bis 2050 den Anteil an der Stromversorgung ĂŒber Energie aus regenerativen Quellen auf mindestens 80 Prozent zu steigern. DarĂŒber hinaus soll eine wesentliche Reduktion der Treibhausgasemissionen erreicht werden. In diesem Zusammenhang ist auch ein nahezu klimaneutraler GebĂ€udebestand vorgesehen, der ebenfalls bis Mitte dieses Jahrhunderts umgesetzt sein soll. FĂŒr derartige Anlagen werden jedoch große KonversionsflĂ€chen benötigt, was wiederum mit erheblichen Eingriffen in die Natur verbunden ist. Hier bieten DĂ€cher und Fassaden großes Potenzial, wenn die GebĂ€udehĂŒlle entsprechend genutzt und auf diese Weise der zusĂ€tzliche Platzbedarf fĂŒr erneuerbare Energien reduziert werden kann. Im Zuge des Forschungsprojekts „Ganzheitliche Integration energetisch aktiver Fassadenkomponenten in Bauprozesse“ werden neue Methoden, AnsĂ€tze und Prozessen entwickelt, um relevante Aspekte frĂŒhzeitig in den Planungsprozess eines GebĂ€udes einbinden zu können. Der Fokus liegt hierbei unter anderem auf der Umwandlung von Sonnenenergie zu Strom und WĂ€rme durch den Einsatz gebĂ€udeintegrierter Photovoltaik (BIPV) beziehungsweise gebĂ€udeintegrierter Solarthermie (BIST). Im Kontext des ganzheitlichen Ansatzes fĂŒr die GebĂ€udeplanung wird die Methodik des Building Information Modeling (BIM) verwendet. Aufgrund der heterogenen Landschaft in Bezug auf die eingesetzte Software und die Datenaustauschformate mĂŒssen viele der erforderlichen Informationen manuell zur VerfĂŒgung gestellt werden. Dies ist insbesondere fĂŒr das geplante Multiagentensystem (MAS) ein Problem, da die Agenten einen gewissen Grad an Intelligenz fĂŒr die autonome Abwicklung anfallender Aufgaben benötigen. Hier stellen Ontologien die semantischen ZusammenhĂ€nge her und ermöglichen somit eine einfachere Weiterverarbeitung, indem Begriffe korrekt interpretiert, Gesetze, Normen und Richtlinien beachtet sowie Daten aus verschiedenen Quellen verknĂŒpft werden. So können bereits wĂ€hrend der Planung aussagekrĂ€ftige energetische Simulationen durchgefĂŒhrt und die technische GebĂ€udeausrĂŒstung korrekt gewĂ€hlt und dimensioniert werden. Im Rahmen dieser Arbeit werden dafĂŒr die entsprechenden Grundlagen in den Bereichen der energetischen Fassadenkomponenten, Simulationen und Analysen, BIM sowie Ontologien und Semantic Web ermittelt. Darauf aufbauend soll eine Ontologie entwickelt werden, die zur Erzeugung einer Datenbasis zu nutzen ist. Die identifizierten relevanten Informationen sind dabei aus einem digitalen GebĂ€udemodell zu entnehmen, wobei die Industry Foundation Classes (IFC) den zugrunde liegenden Standard darstellen. Über die Serialisierung eines solchen IFC-Modells in Form eines RDF-Graphen wird eine ABox geschaffen, die zusammen mit dem Schema einer fachspezifischen DomĂ€ne (TBox) eine Wissensbasis bildet. Die zunĂ€chst gewĂ€hlte Herangehensweise mit Hilfe von umfassendem OWL-Reasoning fĂŒhrt dabei zu einigen Problemen aufgrund der Redundanz des IFC-Schemas und unzureichender LeistungsfĂ€higkeit der mit dem Java-basierten Semantic-Web-Framework Apache Jena realisierten Inferenzmethoden. Im Anschluss wird daher der Ansatz so angepasst, dass ĂŒber die Verwendung von Model View Definitions (MVDs) und den damit in Verbindung stehenden Standards dafĂŒr gesorgt werden kann, dass VerfĂŒgbarkeit und Struktur der zu integrierenden Daten gesichert sind. So könnten ausgehend von den in mvdXML formulierten Vorgaben Regeln fĂŒr Reasoning-Prozesse hergeleitet werden, mit denen die zuvor festgestellten Probleme vermieden beziehungsweise behoben werden. Zur Demonstration dieses Ansatzes werden fĂŒr zwei DomĂ€nen, die Beleuchtungsanalyse mit Radiance und die Energiebilanzierung gemĂ€ĂŸ Energieeinsparverordnung (EnEV), geeignete Ontologien konzipiert sowie eine Java-Applikation entwickelt, die ein IFC-Modell mit regelbasierten Inferenzmethoden verarbeitet. Da die angestrebte Automatisierung der zugrunde liegenden Prozesse ĂŒber den Rahmen dieser Arbeit hinausgeht und die spĂ€tere Anwendung im Hinblick auf das Projekt zum Zeitpunkt der Ausarbeitung noch nicht vollstĂ€ndig feststeht, wird die Machbarkeit der gewĂ€hlten Herangehensweise vorerst exemplarisch anhand von zwei Anwendungsszenarien fĂŒr die ausgesuchten DomĂ€nen demonstriert. Auf diese Weise wird nicht nur der entwickelte Ansatz validiert, sondern auch die potenziell wichtige Rolle hervorgehoben, die Ontologien in einem solchen Kontext zukommen kann

    Der Schutz Kritischer Infrastrukturen als Gegenstand der rÀumlichen Planung

    No full text
    Das Thema Kritische Infrastrukturen (KRITIS) hat in der jĂŒngeren Vergangenheit stark an Bedeutung gewonnen. Durch die vermehrte VerknĂŒpfung der Infrastruktursektoren untereinander und die Nutzung von bspw. Strom und Telekommunikation in praktisch allen Bereichen des menschlichen Lebens wirken sich BeeintrĂ€chtigungen oder Störungen dieser Infrastrukturen umso gravierender aus. Um also die FunktionsfĂ€higkeit moderner Gesellschaften aufrecht zu erhalten, mĂŒssen Kritische Infrastrukturen geschĂŒtzt werden. Laut dem §2 Abs. 2 Nr. 3 Raumordnungsgesetz (ROG) muss auch die rĂ€umliche Planung diesem Schutz „Rechnung tragen“, es ist jedoch nicht ausgefĂŒhrt, was genau darunter zu verstehen ist oder wie die Umsetzung in der Praxis aussieht bzw. aussehen sollte. Diese Problematik soll im Rahmen der Arbeit aufgegriffen und eingehend untersucht werden. Dazu wird im Zuge der Arbeit zunĂ€chst ein Überblick ĂŒber den Themenbereich gegeben, zentrale Begrifflichkeiten und die am KRITIS-Schutz beteiligten Akteure erlĂ€utert, um anschließend die Rolle der Raumplanung im Allgemeinen und die der Regionalplanung im Speziellen genauer betrachten zu können. Als ein möglicher Ansatz zur Wahrnehmung der herausgearbeiteten Aufgaben wird im Anschluss das Risikomanagement vorgestellt, welches Möglichkeiten zur Operationalisierung des Schutzes Kritischer Infrastrukturen im Rahmen des rĂ€umlichen Planungsprozesses bietet. Um die erarbeiteten Grundlagen und gewonnenen Erkenntnisse mit der Praxis zu verknĂŒpfen, werden im dritten Kapitel UntersuchungsrĂ€ume ausgewĂ€hlt, in denen der KRITIS-Schutz als Gegenstand der rĂ€umlichen Planung analysiert werden soll. Hier bieten sich auf der Ebene der Regionalplanung die Regionen Nord- und SĂŒdhessen an. GegenĂŒber der „klassischen“ Regionalplanung im Regierungsbezirk Kassel im Norden findet im Rhein-Main-Gebiet im SĂŒden ein Regionaler FlĂ€chennutzungsplan Anwendung. So können an dieser Stelle verschiedene Planungsinstrumente im Hinblick auf Festlegungen und Maßnahmen fĂŒr den Schutz Kritischer Infrastrukturen untersucht und miteinander verglichen werden. Neben dieser Planinhaltsanalyse wurden im Rahmen der Arbeit Interviews mit Vertretern der jeweiligen Regionalplanungsregionen gefĂŒhrt. Mithilfe dieser Resultate werden im Hauptteil der Arbeit neben dem Vergleich der zuvor erwĂ€hnten Planungsinstrumente auch die Stellung des KRITIS-Schutzes in der Raumplanung, die Raumrelevanz und rĂ€umliche Eingrenzbarkeit der Problematiken, der Einfluss des Klimawandels und das oben angesprochene Risikomanagement als eine mögliche Lösung behandelt. Insgesamt ist dabei festzustellen, dass der Schutz Kritischer Infrastrukturen eine in weiten Teilen defizitĂ€re Rolle im raumplanerischen Prozess einnimmt und auf der genauer betrachteten Ebene der Regionalplanung bisher wenig bis gar keine Anwendung findet. Hier wirken sich neben der Tatsache, dass das Thema an sich recht neu und unerforscht ist, vor allen Dingen die nicht zuletzt dadurch bedingt fehlenden Möglichkeiten zur Operationalisierung und Handhabe des KRITIS-Schutzes durch die Raumplanung negativ aus. So werden zwar einige Optionen und Maßnahmen herausgestellt, derer sich die rĂ€umliche Planung bedienen könnte, allerdings ist die Aufgabenwahrnehmung in der Praxis zumeist mangelhaft. Oft fehlen konkrete Festlegungen, die direkt dem Schutz Kritischer Infrastrukturen Rechnung tragen, wie es im Raumordnungsgesetz formuliert ist. Im Bereich des Hochwasserschutzes z.B. tritt der KRITIS-Schutz eher als Nebeneffekt der ohnehin durch die Raumplanung zu treffenden Bestimmungen auf. Zum Abschluss wird daher nochmals auf das Risikomanagement eingegangen, da dieser Ansatz Möglichkeiten aufzeigt, den Schutz Kritischer Infrastrukturen besser als bisher in den rĂ€umlichen Planungsprozess einzubinden. Als Fazit ist somit festzuhalten, dass es höchstwahrscheinlich nötig sein wird, die Rolle bzw. Aufgabe der Raumplanung in diesem Bereich und somit den KRITIS-Schutz als Gegenstand der rĂ€umlichen Planung deutlich zu stĂ€rken. Ansonsten besteht Grund zu der Annahme, dass man hier dem Schutz Kritischer Infrastrukturen in Zukunft nicht gerecht werden kann, wenn die Raumplanung ihr Potenzial in diesem Bereich weiterhin ungenutzt lĂ€sst

    Untersuchung des Potenzials der Unity-Engine fĂŒr EntïŹ‚uchtungssimulationen auf Basis der RiMEA

    No full text
    Der vorliegende Beitrag untersucht das Potenzial der Entwicklungsumgebung Unity in Verbindung mit Methoden des Building Information Modeling, um auf Basis der Richtlinie fĂŒr Mikroskopische Ent- ïŹ‚uchtungsanalysen (RiMEA) Simulationen fĂŒr die Evakuierung von GebĂ€uden durchzufĂŒhren. Zu die- sem Zweck wird zunĂ€chst die generelle Eignung der Unity-Engine anhand der in der RiMEA beschrie- benen TestfĂ€lle untersucht, um anschließend ĂŒber die Einbindung von IFC-GebĂ€udemodellen einen konkreten Anwendungsfall fĂŒr ein BestandsgebĂ€ude zu realisieren. Die Erkenntnisse werden im Kon- text möglicher AnsĂ€tze fĂŒr die ingenieurmĂ€ĂŸige Beurteilung brand-schutztechnischer Belange diskutiert
    corecore