90 research outputs found
Analysis of Ventricular Repolarization Parameters
Tato bakalářská práce se zabývá analýzou parametrů popisujících repolarizační fázi srdečních komor na experimentálních záznamech EKG. V úvodu teoretické části jsou zahrnuty informace o elektrofyziologii srdce, základním principu EKG a buněčné podstatě vzniku T vlny. Další kapitola se zaměřuje na metody, které se používají pro analýzu komorové repolarizace, především na morfologické parametry zahrnující analýzu hlavních komponent (PCA). Následně je v práci popsána databáze experimentálních signálů EKG získaných z izolovaných králičích srdcí. V praktické části této bakalářské práce jsou implementovány algoritmy morfologických parametrů na experimentální EKG záznamy. Samotná implementace algoritmů je realizována až po počáteční úpravě dat. Poté je provedena analýza vztahu morfologických a hemodynamických parametrů, která je vyhodnocena pomocí statistické analýzy.This bachelor’s thesis deals with the analysis of ventricular repolarization parameters on experimental ECG records. In the beginning of the theoretical part there are included information about heart electrophysiology, fundamental principle of ECG and cellular basis of the T-wave formation. Next chapter is focused on methods used for the analysis of ventricular repolarization, especially spatial parameters including principal component analysis (PCA). Then, in the thesis, there is described the database of experimental ECG signals created from isolated rabbit hearts. In the practical part of this bachelor’s thesis, there are implemented spatial parameters on experimental ECG records. Implementation of algorithms is performed after initial data preparation. Then, there is performed analysis of relation between spatial and hemodynamic parameters and the relation is evaluated by statistical analysis.
Andrews Graduates Receive Awards at Film Festival
Hintergrund:
Am Helmholtz-Zentrum für Umweltforschung - UFZ arbeiten Forschende an Fragestellungen, die sich u.a. mit den aktuellen Veränderungen des Klimas und dessen Auswirkungen auf die Landnutzung beschäftigen. Dazu werden an verschiedenen Orten eine Vielzahl unterschiedlichster Umweltparameter mit Sensoren erfasst. Diese Daten werden kontinuierlich erhoben, um die Veränderungen möglichst in Echtzeit zu beobachten (Monitoring). Teilweise kommen pro Beobachtungsort mehrere Hunderte solcher Sensoren zum Einsatz. Die dafür eingesetzten Sensoren erfassen z.B. Bodenfeuchte, Niederschlagsmenge, Strahlungen und andere abiotische Kenngrößen. Damit die Daten (nach)nutzbar sind, müssen sie so aufbereitet und beschrieben werden, dass sie für nachfolgende Prozesse maschinen-lesbar bearbeitet werden können und in einer Form vorliegen, die eine Veröffentlichung nach den FAIR-Prinzipien ermöglicht.
Herausforderung:
Die erhobenen Messdaten müssen nicht nur gesichert werden, sondern auch auf Plausibilität geprüft, prozessiert und mit hinreichender Detailtiefe beschrieben werden, damit sie nachfolgend den Forschenden für die Beantwortung ihrer Forschungsfragen als Grundlage zur Verfügung stehen. Eine Herausforderung dabei ist, dass die Daten kontinuierlich als Datenstrom anfallen. Folglich müssen Prozesse wie die strukturierte Ablage, die Anreicherung mit Metadaten sowie Prüfung auf Fehlmessungen (sog. Qualitätssicherung) automatisiert werden. Aufgrund der Heterogenität der Sensoren (unterschiedliche Hersteller stellen Daten in unterschiedlichen Formaten zur Verfügung) muss bei diesen Prozessen auch eine Formatumwandlung erfolgen. Darüber hinaus sind je nach Messgröße und -verfahren verschiedene Methoden zur Plausibiläts- und Qualitätsprüfung anzuwenden.
Lösungsansatz:
Das Research Data Management Team des UFZ hat gemeinsam mit der IT-Abteilung einen Daten-Workflow entwickelt, der die unterschiedlichen Daten automatisch zusammenführt, sichert und nach einem vordefinierten Schema mit Metadaten anreichert.
Der Einsatz des Workflows wird exemplarisch anhand von aktuellen Forschungsprojekten vorgestellt und die darin enthaltenen Schritte detailliert beschrieben, wobei auch auf die technische Umsetzung eingegangen wird. Insbesondere werden die Komponenten zur Datenstrukturierung und semiautomatischen Qualitätssicherung vorgestellt, bei denen auch Methoden des Machine Mearning zum Einsatz kommen. Innerhalb des Workflows können die prozessierten Daten nach verschieden Verfahren aggregiert und weiterverarbeitet werden. Das geschieht u.a. über definierte Schnittstellen zu internen und externen Services (z.B. durch Bereitstellung als Sensor Observation Service (SOS) oder mittels einer API).
Fazit:
Die im Rahmen des hier vorgestellten Workflows entwickelten Prozesse und Komponenten zum automatisierten Management von Forschungsdaten bilden eine wichtige Grundlage für das Forschungsdatenmanagement am UFZ. Durch die modulare Ausgestaltung können die Komponenten an den Bedarf der Forschenden angepasst werden und sind auch für Szenarien geeignet, in denen die Messdaten nicht als Datenstrom anfallen.
Mit diesem Workflow ist die Voraussetzung geschaffen, die am UFZ erhobene Daten auch als Linked Data der wissenschaftlichen Community und anderen Stakeholdern zur Verfügung zu stellen
Shortest path based decision making using probabilistic inference
Despite the extensive use of boron-modified
phenol–formaldehyde
polymers as insulating materials in soft magnetic composites (SMCs),
the structure and arrangement of the inorganic cross-linking units
in these systems have not been fully elucidated. To clarify the structure,
configuration, and distribution of the boron cross-links in these
materials, phenol–formaldehyde resins modified by boric acid
were synthesized and characterized using advanced multiple-quantum <sup>11</sup>B–<sup>11</sup>B MAS NMR correlation techniques combined
with the quantum chemical geometry optimizations and the subsequent <sup>11</sup>B NMR chemical shielding calculations. The analyses of the
resulting spectra revealed a well-evolved (high-density) phenol–formaldehyde
polymer network additionally strengthened by nitrogen and boron cross-links.
The boron-based cross-links were attributed to monoester (ca. 10%)
and diester (ca. 90%) complexes (six-membered spirocyclic borate anions)
with strictly tetrahedral coordination (B<sup>IV</sup>). During the
thermal treatment, the monoester and diester borate complexes underwent
additional transformation in which the spirocyclic borate anions were
more tightly incorporated into the polymer matrix via additional <i>N</i>-type (amino) cross-links. A <sup>11</sup>B–<sup>11</sup>B double-quantum correlation MAS NMR experiment revealed
that the majority of the monoester and diester borate complexes (ca.
80%) were uniformly distributed within and effectively isolated by
the polymer matrix, with an average <sup>11</sup>B···<sup>11</sup>B interatomic distance greater than 6 Å. A non-negligible
part of the spirocyclic borate anion complexes (ca. 20%), however,
existed in pairs or small clusters in which the average <sup>11</sup>B···<sup>11</sup>B interatomic distance was less than
5.5 Å. In addition, the formation of homodimers (diester–diester)
was demonstrated to be preferred over the formation of heteroclusters
(monoester–diester)
Generalized predictive modeling for facilitated transport membranes accounting for fixed and mobile carriers
The present work expands previous modeling knowledge on facilitated transport membranes for olefin/paraffin separation. A new robust and practical mathematical model for the description of light olefin flux in composite polymer/ionic liquid/Ag+ membranes is reported. The model takes into account three different transport mechanisms, i.e., solution-diffusion, fixed-site carrier and mobile carrier transport mechanisms. Fixed-site carrier contribution that appears thanks to the bounding of silver cations with the polymer chains is described through a “hopping parameter”. Furthermore, given that the addition of an ionic liquid to the membrane composition promotes carrier mobility, the inclusion of a dedicated expression is necessary for a realistic description of mobile-carrier transport phenomena. The contribution of each mechanism in weighted based on the membrane composition.
In order to check the model suitability, simulated values have been matched to experimental data obtained by continuous flow propane/propylene permeation experiments through PVDF-HFP/BMImBF4/AgBF4 composite membranes, working with 50:50 gas mixtures at different temperature and pressure. The resultant model offers good predictions for olefin flux and provides a very useful tool for process optimization and scaling-up. To our knowledge, this is the first time that mobile and fixed site carrier mechanisms performance are simultaneously modeled considering the influence of temperature, pressure and carrier loading.Financial support from projects CTQ2015-66078-R and CTQ2016-75158-R (MINECO, Spain-FEDER 2014–2020) is gratefully acknowledged. Raúl Zarca also thanks the Universidad de Cantabria for a postgraduate fellowship
Perovskite-molecule composite thin films for efficient and stable light-emitting diodes
Abstract: Although perovskite light-emitting diodes (PeLEDs) have recently experienced significant progress, there are only scattered reports of PeLEDs with both high efficiency and long operational stability, calling for additional strategies to address this challenge. Here, we develop perovskite-molecule composite thin films for efficient and stable PeLEDs. The perovskite-molecule composite thin films consist of in-situ formed high-quality perovskite nanocrystals embedded in the electron-transport molecular matrix, which controls nucleation process of perovskites, leading to PeLEDs with a peak external quantum efficiency of 17.3% and half-lifetime of approximately 100 h. In addition, we find that the device degradation mechanism at high driving voltages is different from that at low driving voltages. This work provides an effective strategy and deep understanding for achieving efficient and stable PeLEDs from both material and device perspectives
Identification of supraventricular tachycardia segments using multiple-instance learning
Supraventricular tachycardias have a high incidence in the population and often cause health disorders. The aim of this thesis is to automatically detect and localize atrial fibrillation in ECG records. The algorithm, implemented in Python, uses a convolutional neural network ResNet for detection with multiple-instance learning and decision rules. The output of the detection in the form of a feature signal is used for localization. The classification achieved F1 score of 0.87 on the test dataset. Then, paroxysmal atrial fibrillation was localized with a deviation of -0.40±2.26 seconds for the onsets and 1.09±2.75 seconds for the terminations of the episodes. Lastly, the obtained results are evaluated and discussed
Identification of supraventricular tachycardia segments using multiple-instance learning
Supraventrikulární tachykardie mají v populaci vysokou incidenci a často způsobují zhoršení zdravotního stavu. Cílem této diplomové práce je automaticky detekovat a lokalizovat paroxysmální fibrilace síní v záznamech EKG. Algoritmus implementovaný v jazyce Python používá k detekci konvoluční neuronovou síť ResNet s využitím multi-instančního učení a rozhodovacích pravidel. K lokalizaci slouží výstup detekce v podobě feature signálu. Při klasifikaci bylo na testovací množině dosaženo F1 skóre 0,87. Následně byly lokalizovány paroxysmální fibrilace síní s odchylkou -0,40±2,26 sekund pro začátky a 1,09±2,75 sekund pro konce epizod. V závěru práce jsou získané výsledky vyhodnoceny a diskutovány.Supraventricular tachycardias have a high incidence in the population and often cause health disorders. The aim of this thesis is to automatically detect and localize atrial fibrillation in ECG records. The algorithm, implemented in Python, uses a convolutional neural network ResNet for detection with multiple-instance learning and decision rules. The output of the detection in the form of a feature signal is used for localization. The classification achieved F1 score of 0.87 on the test dataset. Then, paroxysmal atrial fibrillation was localized with a deviation of -0.40±2.26 seconds for the onsets and 1.09±2.75 seconds for the terminations of the episodes. Lastly, the obtained results are evaluated and discussed.
Vom Sensor zum Forschungsdatensatz: Automatisierte Datenflüsse am UFZ
Hintergrund:
Am Helmholtz-Zentrum für Umweltforschung - UFZ arbeiten Forschende an Fragestellungen, die sich u.a. mit den aktuellen Veränderungen des Klimas und dessen Auswirkungen auf die Landnutzung beschäftigen. Dazu werden an verschiedenen Orten eine Vielzahl unterschiedlichster Umweltparameter mit Sensoren erfasst. Diese Daten werden kontinuierlich erhoben, um die Veränderungen möglichst in Echtzeit zu beobachten (Monitoring). Teilweise kommen pro Beobachtungsort mehrere Hunderte solcher Sensoren zum Einsatz. Die dafür eingesetzten Sensoren erfassen z.B. Bodenfeuchte, Niederschlagsmenge, Strahlungen und andere abiotische Kenngrößen. Damit die Daten (nach)nutzbar sind, müssen sie so aufbereitet und beschrieben werden, dass sie für nachfolgende Prozesse maschinen-lesbar bearbeitet werden können und in einer Form vorliegen, die eine Veröffentlichung nach den FAIR-Prinzipien ermöglicht.
Herausforderung:
Die erhobenen Messdaten müssen nicht nur gesichert werden, sondern auch auf Plausibilität geprüft, prozessiert und mit hinreichender Detailtiefe beschrieben werden, damit sie nachfolgend den Forschenden für die Beantwortung ihrer Forschungsfragen als Grundlage zur Verfügung stehen. Eine Herausforderung dabei ist, dass die Daten kontinuierlich als Datenstrom anfallen. Folglich müssen Prozesse wie die strukturierte Ablage, die Anreicherung mit Metadaten sowie Prüfung auf Fehlmessungen (sog. Qualitätssicherung) automatisiert werden. Aufgrund der Heterogenität der Sensoren (unterschiedliche Hersteller stellen Daten in unterschiedlichen Formaten zur Verfügung) muss bei diesen Prozessen auch eine Formatumwandlung erfolgen. Darüber hinaus sind je nach Messgröße und -verfahren verschiedene Methoden zur Plausibiläts- und Qualitätsprüfung anzuwenden.
Lösungsansatz:
Das Research Data Management Team des UFZ hat gemeinsam mit der IT-Abteilung einen Daten-Workflow entwickelt, der die unterschiedlichen Daten automatisch zusammenführt, sichert und nach einem vordefinierten Schema mit Metadaten anreichert.
Der Einsatz des Workflows wird exemplarisch anhand von aktuellen Forschungsprojekten vorgestellt und die darin enthaltenen Schritte detailliert beschrieben, wobei auch auf die technische Umsetzung eingegangen wird. Insbesondere werden die Komponenten zur Datenstrukturierung und semiautomatischen Qualitätssicherung vorgestellt, bei denen auch Methoden des Machine Mearning zum Einsatz kommen. Innerhalb des Workflows können die prozessierten Daten nach verschieden Verfahren aggregiert und weiterverarbeitet werden. Das geschieht u.a. über definierte Schnittstellen zu internen und externen Services (z.B. durch Bereitstellung als Sensor Observation Service (SOS) oder mittels einer API).
Fazit:
Die im Rahmen des hier vorgestellten Workflows entwickelten Prozesse und Komponenten zum automatisierten Management von Forschungsdaten bilden eine wichtige Grundlage für das Forschungsdatenmanagement am UFZ. Durch die modulare Ausgestaltung können die Komponenten an den Bedarf der Forschenden angepasst werden und sind auch für Szenarien geeignet, in denen die Messdaten nicht als Datenstrom anfallen.
Mit diesem Workflow ist die Voraussetzung geschaffen, die am UFZ erhobene Daten auch als Linked Data der wissenschaftlichen Community und anderen Stakeholdern zur Verfügung zu stellen
- …