University of Siegen

Publikations- und Dokumentenserver der Universitätsbibliothek Siegen
Not a member yet
    1997 research outputs found

    Entwicklung und Optimierung der schnellen Einzelpartikel-Massenspektrometrie mit induktiv gekoppeltem Plasma als Instrument zur Analyse von Nanomaterialien in Umweltgewässern

    No full text
    Single particle inductively coupled plasma mass spectrometry (spICP-MS) is an instrumental analysis method that enables the determination of the size, size distribution, and particle number concentration of nanoparticles (NP) in suspensions. Due to its comparatively short total analysis time of a few minutes and minimal required sample preparation, spICP-MS has evolved to a routine research tool to characterize NP in aqueous samples, as e.g. surface water, sea water, and waste water. Because nanoparticle toxicity can be size dependent (among other factors), it is crucial to be able to detect NP in the largest possible size range. This thesis reports novel instrumental developments and data processing pathways that aim to decrease the lower size detection limit of spICP-MS with a quadrupole mass analyzer and to further enhance analysis and data evaluation speed. First, a novel data acquisition unit is tested that provides nanosecond time resolution spICP-MS (4 ns, nanoDAQ). In contrast to previous spICP-MS analysis methods with milli- or microsecond time resolution, this fast measurement mode enables not only the detection of individual NP, but even the detection of individual atoms that make up each NP. Because the structure of the obtained data differs from conventional spICP-MS, a data processing workflow is developed to determine NP sizes and particle number concentrations. It is shown that the prototype nanoDAQ achieves a size detection limit for gold NP in bi-distilled water samples of ca. 7 nm. Subsequently, an optimized version of the nanoDAQ prototype is evaluated, which was developed to reduce measurement artifacts. The figures of merit of the improved system are showcased. In order to reduce and facilitate data processing steps, an automated ion cloud recognition algorithm is tested and described, which had been tailor-made to detect, characterize, and count NP signals in the nanosecond time-resolved data from the nanoDAQ. The algorithm is first tested on model suspensions of spherical gold NP (4.7–125 nm diameter) in bi-distilled water samples and is compared to the previously used, elaborate data processing workflow. After careful evaluation of the method capabilities, the nanoDAQ system and the automated algorithm are utilized for the analysis of surface water and waste water samples from a field study. With the novel method, NP containing Ag, Ce, and Zr could be detected successfully in regional surface water samples from the area of Siegen and their particle number concentrations (PNC) could be estimated. The estimated PNC agree well with comparative values that were reported in the literature for river systems in Europe and North America.Die Massenspektrometrie mit induktiv gekoppeltem Plasma im Einzelpartikel-Modus (spICP-MS) ist eine instrumentelle Analysenmethode, welche die Bestimmung von Größe, Größenverteilung und Partikelanzahlkonzentration von Nanopartikeln (NP) in Suspensionen ermöglicht. Aufgrund der vergleichsweise kurzen Gesamtanalysezeit von wenigen Minuten und der minimalen erforderlichen Probenvorbereitung hat sich spICP-MS zu einer in der Forschung routinemäßig-verwendeten Methode zur Charakterisierung von NP in wässrigen Proben, wie z.B. Oberflächenwasser, Meerwasser und Abwasser, entwickelt. Da die Toxizität von NP (neben anderen Faktoren) von deren Größe abhängt, ist es entscheidend, sie in einem größtmöglichen Größenbereich nachweisen zu können. In dieser Arbeit werden neue instrumentelle Entwicklungen und Datenverarbeitungswege vorgestellt, die darauf abzielen, die untere Nachweisgrenze von spICP-MS in Kombination mit einem Einzel-Quadrupol-Massenanalysator zu senken und die Analyse- und Datenauswertungsgeschwindigkeit weiter zu erhöhen. Zunächst wird eine neuartige Datenerfassungseinheit getestet, welche spICP-MS mit einer Zeitauflösung im Nanosekundenbereich (4 ns, nanoDAQ) ermöglicht. Im Gegensatz zu bisherigen spICP-MS-Methoden erlaubt dieser schnelle Messmodus nicht nur den Nachweis einzelner NP, sondern sogar die Detektion einzelner Atome, aus welchen jeder NP besteht. Da sich die Struktur der erhaltenen Daten von denen der konventionellen spICP-MS unterscheidet, wird ein Datenverarbeitungsworkflow entwickelt, um Partikelgrößen und anzahlkonzentrationen zu bestimmen. Es wird gezeigt, dass der nanoDAQ-Prototyp eine Größennachweisgrenze für Gold-NP in bi-destilliertem Wasser von ca. 7 nm erreicht. Anschließend wird eine optimierte Version des nanoDAQ-Prototyps getestet, welche entwickelt wurde um Messartefakte zu reduzieren. Die Leistungsdaten des verbesserten Systems werden vorgestellt. Zur Reduzierung und Vereinfachung der Datenverarbeitungsschritte wird ein automatischer Algorithmus zur Erkennung von Ionenwolken getestet und beschrieben, der speziell für das Erkennen, Charakterisieren und Zählen von NP-Signalen in den Nanosekunden-zeitaufgelösten Daten des nanoDAQ entwickelt wurde. Der Algorithmus wird zunächst an Modell-Suspensionen sphärischer Goldnanopartikel (4.7–125 nm Durchmesser) in bi-destilliertem Wasser getestet und mit dem zuvor verwendeten, aufwendigen Datenverarbeitungsprozess verglichen. Nach sorgfältiger Evaluierung der Leistungsfähigkeit der Methode werden das nanoDAQ-System und der automatisierte Algorithmus für die Analyse von Oberflächenwasser- und Abwasserproben aus einer Feldstudie eingesetzt. Mit der neuen Methode konnten Ag-, Ce- und Zr-enthaltende Nanopartikel erfolgreich in regionalen Oberflächengewässerproben aus der Region Siegen detektiert werden und deren Partikelanzahlkonzentration (PNC) konnte abgeschätzt werden. Die abgeschätzten PNC stimmen gut mit vergleichbaren Werten überein, welche in der Literatur für Flusssysteme in Europa und Nordamerika berichtet wurden

    Tango and Comic. The Cultural Poetics of Discepolín and Quino during the Infamous and Rebellious Decades in Argentina

    No full text
    Die Idee zu dieser Arbeit entstand bei der Betrachtung des Wandbildes von Omar Gasparini im La Boca-Viertel in Buenos Aires. Das daraus resultierende Interesse, die Kulturpoetiken von Enrique Santos Discépolo (Discepolín) und Juan Salvador Lavado (Quino) komparatistisch zu vergleichen, mag zunächst paradox erscheinen, schließlich haben Tango und Comic auf den ersten Blick nicht viel gemeinsam. Im Ergebnis jedoch erweist sich diese originelle Vorgehensweise als produktiv, denn sie beleuchtet das Zusammenspiel von gesellschaftlichen Konflikten und populären Ausdrucksformen innerhalb der argentinischen Geschichte aus einer ungewöhnlichen Perspektive im Hyperraum der Kultur.The idea for the volume emerged while contemplating Omar Gasparini's mural in the La Boca district of Buenos Aires. The resulting interest in comparing the cultural poetics of Enrique Santos Discépolo (Discepolín) and Juan Salvador Lavado (Quino) might seem paradoxical at first, as tango and comics appear to have little in common. However, this original approach ultimately proves productive, illuminating the interplay of social conflicts and popular forms of expression within Argentine history from an unusual perspective in the cultural landscape

    How de-institutionalized is marriage? Couples' interpretations of marriage before and after getting married

    No full text
    Die Arbeit beleuchtet den Übergang von einer nichtehelichen Paarbeziehung in die Ehe. Auf der Basis von qualitativen Interviews, die vor und nach der Eheschließung geführt wurden, rekonstruiert die Autorin, welche Deutungen der Ehe sich in den Erzählungen von Paaren dokumentieren lassen. Die Ehe wird dabei aus einer in der Soziologie wenig verbreiteten Perspektive betrachtet: einerseits als gesellschaftlich de‐institutionalisierte Beziehungsform, die sich vor allem durch individuelle Gestaltungsfreiheit auszeichnet, andererseits als rechtlich‐institutionell verankerte Struktur, die Paaren spezifische Rahmenbedingungen vorgibt. Die Autorin promovierte mit dieser Arbeit an der Universität Siegen.The work sheds light on the transition from a non‐marital relationship to marriage. Based on the basis of qualitative interviews conducted before and after marriage, the author reconstructs the interpretations of marriage that are documented in the narratives of couples. Marriage is viewed from a perspective that has not been widely used in sociology: on the one hand, as a de-instutionalized form of relationship that is characterized above all by individual freedom of choice, and on the other hand, as a legally and institutionally anchored structure that provides couples with specific framework conditions. The author wrote her doctoral thesis at the University of Siegen

    Bayessche Parameterschätzung und Thermodynamik in offenen Quantensystemen

    No full text
    The trend towards miniaturised devices has resulted in systems small enough to be governed by quantum mechanics. The goal of these systems is to perform thermodynamic tasks like refrigeration or work extraction, which requires a description of how they interact with their environment. This has spurred the development of quantum thermodynamics. However, achieving the desired experimental control requires precise knowledge of the system and highly accurate measurements. This thesis explores these two aspects of open quantum systems from a theoretical perspective. First, we explore how Bayesian techniques can be applied to the sensing of environmental parameters of a quantum system to find better estimation protocols, particularly in situations with little data, and where adaptive strategies are allowed. The advantages and drawbacks of various Bayesian estimation approaches are explored. These methods are specifically examined with respect to the role of prior distributions, estimators, and cost functions in achieving accurate estimates. The primary example involves qubit thermometry, where a two-level probe interacts with an environment. This example highlights the effectiveness of Bayesian estimation for small data sets and quantifies the scaling of the accuracy with number of measurements using Bayesian bounds. The sensitivity of probes based on environmental interactions is also analysed. The estimation of rate parameters is studied with particular emphasis on how the specification of the prior information can influence the entire estimation strategy. Next, another example of thermometry is considered using continuously monitored probes. An adaptive strategy is proposed which showcases the benefits of Bayesian estimation. We also study this scenario in the case when the measurement signal includes noise and finite detector bandwidth. Finally, we turn to our second aspect of open quantum systems and study work extraction from an open quantum system. Here, we investigate how collective effects arising from the interaction of permutationally invariant particles with their environment affect work extraction. The analysis includes various models of work extraction, including energy output in steady states, work done against dissipative loads, and power output when coupled to a driving field.Der Trend zu miniaturisierten Bauteilen hat zu Systemen geführt, die so klein sind, dass sie von quantenmechanischen Effekten dominiert werden. Die Systeme interagieren mit ihrer Umgebung, um thermodynamische Aufgaben wie Kühlung oder Arbeitsentnahme durchzuführen. Dadurch wurde die Entwicklung der Quantenthermodynamik vorangetrieben. Genaue Kenntnisse über das System und hochgenaue Messungen sind erforderlich um die gewünschte experimentelle Kontrolle zu erreichen. Diese beiden Aspekte offener Quantensysteme werden in dieser Arbeit aus einer theoretischen Perspektive untersucht. Zunächst wird untersucht, wie insbesondere in Situationen mit wenigen Datenpunkten und wenn adaptive Strategien erlaubt sind, mit bayessche Techniken bessere Schätzprotokolle für die Bestimmung Umgebungsparameter eines Quantensystems gefunden werden können. Das wichtigste Beispiel ist die Qubitthermometrie, bei der eine Zweiebenenprobe mit einer Umgebung interagiert. Dieses Beispiel verdeutlicht die Wirksamkeit der bayesschen Schätzung für kleine Datensätze und ermittelt unter Verwendung bayesscher Grenzen wie die Genauigkeit mit der Anzahl der Messungen skaliert. Ebenfalls wird die auf Wechselwirkungen mit der Umgebung beruhende Sensitivität von Proben analysiert. Die Schätzung von Ratenparametern wird mit besonderem Augenmerk auf den Einfluss der Spezifikation der Vorinformationen auf die gesamte Schätzstrategie untersucht. Als nächstes wird ein weiteres Beispiel der Thermometrie betrachtet, diesmal unter Verwendung von kontinuierlich überwachten Proben. Eine adaptive Strategie die die Vorteile der bayesschen Schätzung verdeutlicht wird vorgeschlagen. Das Szenario wird weiterhin für den Fall, dass das Messsignal Rauschen und eine begrenzte Detektorbandbreite enthält untersucht. Anschließend wenden wir uns dem zweiten Aspekt zu und untersuchen die Extraktion von Arbeits aus einem offenen Quantensystem. Hier untersuchen wir, wie kollektive Effekte, die sich aus der Wechselwirkung von permutationsinvarianten Teilchen mit ihrer Umgebung ergeben, die Arbeitsextraktion beeinflussen. Die Analyse umfasst verschiedene Modelle der Extraktion von Arbeit, einschließlich der Energieabgabe an stationären Zustände, der Arbeit die gegen dissipative Kräfte geleistet wird, und der Leistungsabgabe bei Kopplung an ein Antriebsfeld

    Eingebettete KI für die Bewertung des Gesundheitszustands in Echtzeit und Behandlungsempfehlungen bei Rettungseinsätzen

    No full text
    Rescue emergencies are generally quite strenuous and challenging because they deal with human lives in a situation where it is difficult to apprehend precisely the health status of a distressed patient due to personal and work limitations. Often the rescue personnel have to deal with high levels of mental and physical stress, trauma, and emotional strain during rescue operations, especially when dealing with injured and vulnerable victims. This certainly impacts their decision-making abilities and overall well-being. Time, the main constraint in such rescue situations, also plays a vital role in decision-making. Therefore, it is necessary to recognize relevant situations i.e. health complications of the rescue patients on site, and to take appropriate first aid measures. The situation may change during the further course of initial treatment, with rescue workers judging this primarily by the visible condition of the emergency patient, the data from medical equipment (e.g., ventilator, ECG), and the mission description from the control room. Such changes are required to be responded to immediately, for example by resuscitation or appropriate medication. That's why, waiting for results from medical tests like MRI and ECG which are time-consuming and not suitable for emergency cases is not considered suitable for rescue cases. Considering these technical constraints, the doctoral thesis focuses on employing artificial intelligence (AI) models in two aspects that can expedite and improve the rescue process. Firstly, for the diagnosis of health complications in rescue situations and secondly to identify the correct medications as a part of initial treatment. A major part of this research is focused on advanced data analysis techniques that were used to extract information from 12 years of rescue records of 273,283 cases in the German city of Siegen-Wittgenstein. The initial data received from the rescue station was raw and in many cases contained incomprehensible information for which Natural Language Processing (NLP) techniques were applied to extract and interpolate relevant attributes. Subsequently, a detailed method for creating various AI models to promptly detect six key complications— Cardiovascular, Respiratory, Psychiatric, Neurological, Metabolic, and Abdominal—was conducted and is detailed in this dissertation. To develop the detection models for each complication, Artificial Intelligence(AI) algorithms like machine learning including both classical and deep learning approaches were used. To train these models attributes like patients' medical history, health diagnoses including neurological assessment, vital signs, initial impression of the rescue personnel, administered medications, and other treatment paths were used. During the course of development, one primary objective was to identify the model achieving the greatest accuracy and precision. Based on this research, Extreme Gradient Boosting (XGB) and Random Forest (RF) algorithms were found as the most promising, showcasing accuracy rates ranging from 80\% to 96\%. After recognizing health complications, further research was done to find out if AI can also be implemented to determine possible medications based on detected complications and patients' health vitals. The result achieved from it also was impressive with accuracy close to 80\%. AI models are further tested by deploying them into various accelerators, such as ARM processors, FPGAs and microcontrollers, to evaluate their performance based on inference time. The overall focus of this research is to overcome the rescue challenges in real-time by recognizing rescue situations and improving the quality of care and efficiency of rescue personnel.Rettungseinsätze sind in der Regel äußerst herausfordernd, da sie mit menschlichem Leben in einer Situation umgehen, in der es aufgrund arbeitsbedingter Einschränkungen schwierig ist, den Gesundheitszustand eines hilfsbedürftigen Patienten genau einzuschätzen. Häufig müssen Rettungskräfte während der Einsätze mit hohen psychischen und physischen Belastungen, Traumata und emotionalem Stress umgehen, insbesondere im Umgang mit verletzten und gefährdeten Opfern. Dies beeinträchtigt ihre Entscheidungsfähigkeit. Die Zeit, der Hauptfaktor in solchen Rettungssituationen, spielt ebenfalls eine entscheidende Rolle bei der Entscheidungsfindung. Daher ist es notwendig, relevante Situationen, d. h. die gesundheitlichen Komplikationen der Patienten vor Ort, zu erkennen und entsprechende Erste-Hilfe-Maßnahmen zu ergreifen. Die Situation kann sich im weiteren Verlauf der Erstbehandlung ändern, wobei Rettungskräfte dies in erster Linie anhand des sichtbaren Zustands des Notfallpatienten, der Daten von medizinischen Geräten (z. B. Beatmungsgerät, EKG) und der Einsatzbeschreibung aus der Leitstelle beurteilen. Solche Änderungen müssen sofort berücksichtigt werden, beispielsweise durch Wiederbelebung oder die Verabreichung geeigneter Medikamente. Aus diesem Grund gelten zeitaufwändige medizinische Tests wie MRT und EKG, die sich für Notfälle nicht eignen, als ungeeignet für Rettungseinsätze. Angesichts dieser technischen Einschränkungen konzentriert sich die vorliegende Doktorarbeit auf den Einsatz von künstlicher Intelligenz (KI) in zwei Aspekten, die den Rettungsprozess beschleunigen und verbessern können: Erstens zur Diagnose von gesundheitlichen Komplikationen in Rettungssituationen und zweitens zur Identifikation der Medikamente im Rahmen der Erstbehandlung. Ein wesentlicher Teil dieser Forschung widmet sich fortschrittlichen Datenanalysetechniken, die angewandt wurden, um Informationen aus 12 Jahren Rettungsdaten von 273.283 Fällen in der deutschen Stadt Siegen-Wittgenstein zu extrahieren. Die ursprünglichen Daten, die von der Rettungsleitstelle empfangen wurden, waren unstrukturiert und enthielten in vielen Fällen unverständliche Informationen, für die Natural Language Processing (NLP)-Techniken eingesetzt wurden, um relevante Attribute zu extrahieren und zu interpolieren. Daraufhin wurde eine detaillierte Methode zur Erstellung verschiedener KI-Modelle entwickelt, um sechs zentrale Komplikationen – Kardiovaskuläre, respiratorische, psychiatrische, neurologische, metabolische und abdominale – schnell zu erkennen. Für die Entwicklung der Erkennungsmodelle für jede Notfälle wurden Algorithmen der KI, einschließlich maschinellem Lernen und sowohl klassischen als auch Deep-Learning-Ansätzen, eingesetzt. Zur Schulung dieser Modelle wurden Attribute wie die Krankengeschichte der Patienten, Diagnosen einschließlich neurologischer Bewertungen, Vitalzeichen, der Ersteindruck der Rettungskräfte, verabreichte Medikamente und andere Behandlungspfade verwendet. Im Verlauf der Entwicklung war ein Hauptziel, das Modell mit der höchsten Genauigkeit und Präzision zu identifizieren. Auf Basis dieser Forschung erwiesen sich die Algorithmen Extreme Gradient Boosting (XGB) und Random Forest (RF) als die vielversprechendsten und erreichten Genauigkeitsraten von 80 \% bis 96 \%. Nach der Erkennung gesundheitlicher Komplikationen wurde weiter geforscht, ob KI auch zur Bestimmung möglicher Medikamente auf Basis der erkannten Komplikationen und der Vitalzeichen der Patienten eingesetzt werden kann. Auch hier waren die erzielten Ergebnisse beeindruckend, mit einer Genauigkeit von fast 80 \%. Die KI-Modelle wurden zusätzlich getestet, indem sie in verschiedenen Beschleunigern wie ARM-Prozessoren, FPGAs und Mikrocontrollern eingesetzt wurden, um ihre Leistung anhand der Inferenzzeit zu evaluieren. Der Schwerpunkt dieser Forschung liegt insgesamt darauf, die Herausforderungen von Rettungseinsätzen in Echtzeit zu bewältigen, indem Rettungssituationen erkannt und die Qualität der Versorgung sowie die Effizienz des Rettungspersonals verbessert werden

    Verteiltes Time-Triggered Caching und Speicherzugriffsoptimierung für Neural Network Tensor Accelerators in Multicore Safety-Critical Systems

    No full text
    Neural network accelerators are essential for meeting the computational demands of modern AI applications; however, their use in safety-critical and real-time environments presents significant challenges, primarily due to inefficiencies in memory access and interference from other applications, leading to unpredictable memory access patterns. This dissertation addresses these memory access bottlenecks by proposing a time-triggered architecture that enhances the memory access mechanisms of tensor accelerators. Traditional accelerators, such as the Versatile Tensor Accelerator (VTA), encounter limitations related to memory bandwidth, resource contention, and variable latency, which impair performance in safety-critical, memory-intensive tasks. This work introduces the Time-Triggered Memory Access VTA (TTmaVTA), which applies time-triggered architectures to control and regulate the memory access of the VTA, ensuring predictable and conflict-free memory transactions. The TTmaVTA framework is further refined with dual memory optimisation techniques, prefetching, and caching mechanisms. These enhancements, collectively referred to as OPTTmaVTA, improve memory throughput while significantly reducing memory access latency. Prefetching mechanisms retrieve data during idle memory cycles, minimising delays due to dependency stalls, while deterministic caching optimises frequently accessed memory operations, reducing memory bus accesses. Together, these methods improve the memory performance of neural network accelerators while ensuring timing predictability, particularly in safety-critical contexts. This dissertation presents hardware experiments and software simulations that validate the effectiveness of TTmaVTA and OPTTmaVTA in improving memory access predictability and memory throughput. Hardware-based experiments using a Conv2D workload on an FPGA demonstrate that TTmaVTA achieves a 2.86% reduction in execution time, primarily due to improved memory scheduling and conflict resolution; however, resource overhead limits TTmaVTA scalability for larger workloads. Software simulations of OPTTmaVTA with ResNet-18 show a 12.68% improvement in memory access time through prefetching and an 8.75% gain through caching. Overall, the OPTTmaVTA architecture achieves improved memory throughput, with a total latency reduction of approximately 19.86% across all memory operations. In culmination, a scheduling algorithm maps memory access patterns to predefined schedules, ensuring deterministic execution and adherence to real-time constraints. Through a combination of theoretical analysis and practical evaluations, this work makes a substantial contribution to hardware-software co-design for neural network accelerators, particularly suited for applications in safety-critical domains.Neuronale Netzwerkbeschleuniger sind entscheidend, um den Rechenanforderungen moderner KI-Anwendungen gerecht zu werden. Ihre Nutzung in sicherheitskritischen und Echtzeitumgebungen stellt jedoch erhebliche Herausforderungen dar, insbesondere durch Ineffizienzen beim Speicherzugriff und Interferenzen durch andere Anwendungen, die zu unvorhersehbaren Speicherzugriffsmustern führen. Diese Dissertation adressiert diese Engpässe, indem sie eine zeitgesteuerte Architektur vorschlägt, die die Speicherzugriffsmechanismen von Tensor-Beschleunigern verbessert. Traditionelle Beschleuniger, wie der Versatile Tensor Accelerator (VTA), stoßen beispeicherintensiven, sicherheitskritischen Aufgaben auf Einschränkungen in Bezug auf Speicherbandbreite, Ressourcenengpässe und variable Latenzzeiten. In dieser Arbeit wird der Time-Triggered Memory Access VTA (TTmaVTA) vorgestellt, der zeitgesteuerte Architekturen verwendet, um den Speicherzugriff des VTA zu steuern und dabei vorhersehbare, konfliktfreie Speichertransaktionen zu gewährleisten. Das TTmaVTA-Framework wird durch zwei Speicheroptimierungstechniken, Prefetching und Caching, weiter verbessert. Diese Optimierungen, zusammengefasst als OPTTmaVTA, steigern den Speicherdurchsatz und reduzieren die Speicherzugriffs-Latenzzeiten erheblich. Prefetching-Mechanismen rufen Daten während inaktiver Speicherzyklen ab, um Verzögerungen durch Abhängigkeitsblockaden zu minimieren, während deterministisches Caching häufig genutzte Speicheroperationen optimiert und die Anzahl der Speicherbuszugriffe verringert. Diese Methoden steigern gemeinsam die Speicherleistung neuronaler Netzwerkbeschleuniger und gewährleisten gleichzeitig zeitliche Vorhersehbarkeit, insbesondere in sicherheitskritischen Kontexten. Die Dissertation präsentiert Hardware-Experimente und Software-Simulationen, die die Effektivität von TTmaVTA und OPTTmaVTA zur Verbesserung der Speicherzugriffsvorhersagbarkeit und des Speicherdurchsatzes bestätigen. Hardware-Experimente mit einem Conv2D-Workload auf einem FPGA zeigen, dass TTmaVTA eine Reduzierung der Ausführungszeit um 2,86% erreicht, hauptsächlich durch optimierte Speicherplanung und Konfliktlösung, jedoch begrenzt der Ressourcenaufwand die Skalierbarkeit für größere Workloads. Software-Simulationen des OPTTmaVTA mit ResNet-18 zeigen eine Verbesserung der Speicherzugriffszeit um 12,68% durch Prefetching und einen Gewinn von 8,75% durch Caching. Insgesamt erreicht die OPTTmaVTA-Architektur eine Steigerung des Speicherdurchsatzes mit einer Gesamtverringerung der Latenzzeit um etwa 19,86% über alle Speicheroperationen. Ein abschließender Scheduling-Algorithmus weist Speicherzugriffsmuster vordefinierten Zeitplänen zu, was eine deterministische Ausführung und Einhaltung von Echtzeit-Anforderungen sicherstellt. Durch eine Kombination von theoretischer Analyse und praktischen Evaluierungen leistet diese Arbeit einen bedeutenden Beitrag zum Hardware-Software-Co-Design für neuronale Netzwerkbeschleuniger, insbesondere für sicherheitskritische Anwendungen

    Identification of damaged components of railway vehicles based on acceleration measurements

    No full text
    Der Fokus der vorliegenden Dissertation lässt sich dem Forschungsfeld Structural Health Monitoring (SHM) zuordnen und hat die Entwicklung neuer Methoden zur Diagnose und Prognose von Schädigungen basierend auf Beschleunigungsmessungen zum Ziel. Als Anwendungsbeispiel wird die Überwachung der Fahrwerkskomponenten von Schienenfahrzeugen gewählt. Schienenfahrzeuge werden meist für eine Nutzungsdauer von 30 Jahren und mehr vorgesehen. Um über diese Zeitspanne einen sicheren und zuverlässigen Betrieb zu gewährleisten, sind regelmäßige Instandhaltungsmaßnahmen durchzuführen, die sich heutzutage nach fest vordefinierten Intervallen richten. Diese Intervalle werden durch eine bestimmte Betriebszeit, oder aber nach Erreichen einer definierten Laufleistung befristet. Strukturelle Schädigungen, die zwischen zwei Instandhaltungsmaßnahmen entstehen lassen sich damit kaum feststellen und führen im extremen Fall zur Entgleisung. Solche Ereignisse sind unplanbar und führen stets zu kostenintensiven korrektiven Maßnahmen. Zur Vermeidung eines solchen Entgleisungsszenarios werden daher die Intervalle nach einem konservativen Ansatz (kurze zeitliche Abstände, wenige Laufleistungskilometer) definiert. Ein Erhöhung der Anzahl an Wartungsmaßnahmen führt zum einen zu steigenden Aufwänden in der Instandhaltung, aber auch zur unwirtschaftlichen Ausnutzung von Komponenten, die dadurch weit vor ihrer technischen Lebensdauer ausgetauscht werden. Eine intelligente, zustandsbasierte Instandhaltungsstrategie unter Verwendung eines SHM-Systems zur Diagnose und Prognose von Schädigungen ist daher ein vielversprechender Ansatz, die Anzahl der Instandhaltungsmaßnahmen zu reduzieren, bei gleichzeitiger Erhöhung der Sicherheit, Zuverlässigkeit und Wirtschaftlichkeit. Strukturelle Schädigungen wirken sich auf das Vibrationsverhalten aus. Schienenfahrzeuge sind während des Betriebes ständigen Vibrationen ausgesetzt, die vor allem durch den Rollkontakt zwischen Rad und Schiene angeregt werden. Das Hauptaugenmerk dieser Forschungsarbeit liegt auf der automatisierten Auswertung und Bewertung der Vibrationsmessungen im Hinblick auf schadhafte Komponenten. Hierzu wird eine neue Methode basierend auf der Stochastic Subspace Identification (SSI) und der Kerndichteschätzung entwickelt und vorgestellt. Das Herzstück bildet die Modal Parameter Density Estimation Function (MoDE-F). Als wesentliche Neuerung ist die Verwendung einer Vielzahl von unterschiedlichen, stochastischen Anregungsszenarien in Kombination mit der Kerndichteschätzung zur Ermittlung der modalen Parameter zu nennen. Dieser Ansatz führt zur Minimierung falscher Identifikationsergebnisse, die durch eine Verletzung der Annahme von weißem Rauschen als Systemanregung - so wie sie bei der Herleitung der SSI verwendet wird - entstehen. Die automatisierte Auswertung und Klassifikation der erzeugten MoDE-F wird mittels der Jensen-Shannon-Divergenz-Metrik (JSDM) realisiert. Aufbauend auf dem aktuellen Forschungsstand wird die Wirkungsweise theoretisch analysiert und dargelegt. In numerischen Simulationen wird die generelle Anwendbarkeit an realitätsnahen Betriebsbedingungen gezeigt. Im Anschluss wird die neuartige Methode an einem realen Drehgestell angewendet.The focus of this dissertation relates to the research field of Structural Health Monitoring (SHM) with the aim to develop new methods for damage diagnosis and prediction based on acceleration measurements. The monitoring of bogie components of railway vehicles is chosen as an application example. Railway vehicles are typically designed for an operationel service life of 30 years or more. In order to ensure a safe and reliable operation over this period, regular maintenance actions must be carried out, which nowadays are based on fixed, predefined intervals. These intervals are limited by a certain operating time or after a defined mileage has been reached. Structural damages that occur between two maintenance actions are rarely detected and, in extreme cases, can lead to derailment. Such events are unpredictable and always result in costly corrective maintenance activities. To avoid such derailment scenarios, the intervals are therefore defined according to a conservative approach (short time intervals, less mileage). Increasing the number of maintenance activities not only raises maintenance costs but also leads to inefficient utilization of components, which are often replaced before the end of their technical service life. Therefore, an intelligent, conditionbased maintenance strategy using an SHM system for damage diagnosis and prediction presents a promising approach to reducing the number of maintenance activities while simultaneously increasing safety, reliability, and cost-effectiveness. Structural damages affect the vibration behavior. Railway vehicles are exposed to constant vibrations during operation, primarily caused by the rolling contact between wheel and rail. The main focus of this research thesis is on the automated evaluation and assessment of vibration measurements concerning defective components. For this purpose, a new method based on Stochastic Subspace Identification (SSI) and kernel density estimation is developed and presented. The core of this method is the Modal Parameter Density Estimation Function (MoDE-F). A key innovation is the use of a large number of different stochastic excitation scenarios in combination with kernel density estimation to determine the modal parameters. This approach leads to the minimization of incorrect identification results that arise from a violation of the white noise assumption for the system excitation – as used in the derivation of the SSI –. The automated evaluation and classification of the generated MoDE-F is realized by using the Jensen-Shannon divergence metric (JSDM). Based on the current state of research, the mode of operation is theoretically analyzed and presented. Numerical simulations show the general applicability to realistic operating conditions. The new method is then applied to a real bogie

    Modulated-diameter zirconia nanotubes for controlled drug release - bye to the burst

    No full text
    Finanziert aus dem DFG-geförderten Open-Access-Publikationsfonds der Universität Siegen für ZeitschriftenartikelThe performance of an orthopedic procedure depends on several tandem functionalities. Such characteristics include materials’ surface properties and subsequent responses. Implant surfaces are typically roughened; this roughness can further be optimized to a specific morphology such as nanotubular roughness (ZrNTs) and the surfaces can further be used as static drug reservoirs. ZrNTs coatings are attracting interest due to their potential to improve the success rate of implant systems, by means of better physical affixation and also micro/nano physio-chemical interaction with the extracellular matrix(ECM). Effective control over the drug release properties from such coatings has been the subject of several published reports. In this study, a novel and simple approach to extending drug release time and limiting the undesirable burst release from zirconia nanotubes (ZrNTs) via structural modification was demonstrated. The latter involved fabricating a double-layered structure with a modulated diameter and was achieved by varying the voltage and time during electrochemical anodization. The structurally modified ZrNTs and their homogenous equivalents were characterized via SEM and ToF-SIMS, and their drug release properties were monitored and compared using UV–Vis spectroscopy. We report a significant reduction in the initial burst release phenomenon and enhanced overall release time. The simple structural modification of ZrNTs can successfully enhance drug release performance, allowing for flexibility in designing drug delivery coatings for specific implant challenges, and offering a new horizon for smart biomaterials based on metaloxide nanostructures

    The Castel del Monte between ideal design and dimensional determination

    No full text
    Die ideale Planung des in Apulien gelegenen Castel del Monte erfolgte in den Proportionen des Silbernen Schnitts. Der vorliegende Artikel zeigt, wie sich hieraus ergebende irrationale Maßzahlen in der Werkplanung bzw. bei der Einmessung und Errichtung des Gebäudes zu rationalen Zahlen auf- oder abgerundet wurden.The ideal planning of the Castel del Monte in Apulia was based on the proportions of the silver section. This article shows how resulting irrational numbers were rounded up or down to whole numbers during the work planning, measurement and construction of the building

    Untersuchung des Zusammenspiels zwischen kleinen extrazellulären Vesikeln und RNA-Granula bei der Huntington-Krankheit

    No full text
    Huntington’s disease (HD) is a neurodegenerative disorder marked by progressive neuronal degeneration, with no current cure. Recent research suggests that RNA granules (such as stress granules and p-bodies) and small extracellular vesicles (sEVs) play critical roles in cellular dysfunction in HD. Both compartments share features like liquid-liquid phase separation (LLPS) and RNA-binding proteins, but the relationship between mutant huntingtin (mHTT) and their shared content remains unexplored. In this study, we analyze the transcriptomic and proteomic profiles of sEVs and RNA granules in a model expressing mHTT to understand their molecular interactions in HD. Our results show significant changes in gene expression in both sEVs and RNA granules, with a notable decrease in sEVs. Long non-coding RNAs (lncRNAs) were abundant in both compartments, and their expression shifted in HD, suggesting their involvement in disease progression. Additionally, 139 genes in our marker list are regulated by the Repressor Element 1 Silencing Transcription Factor (REST), which is disrupted in HD. Three marker genes (SNHG7, LHR1 LNC1610-1, and lnc-DUXA-1) were validated in RNA granules using RNA-FISH, showing partial co-localization with YB1-positive stress granules. qRT-PCR confirmed increased expression of all five marker genes (lnc-SLC30A5-6, SNHG7, SNHG12, LHR1-LNC1610-1, and lnc-DUXA-1) in HD RNA granules, with three markers showing increased expression in sEVs, though two exhibited high variability. To validate the relevance of our findings, we compared the expression patterns of HD sEV marker genes with a recently published RNA sequencing dataset of plasma EVs from HD patients. Our results show a stronger correlation between the pre-HD group in the patient dataset and our cell model, suggesting that our model better reflects the early stages of HD progression. We also identified distinct protein profiles in HD sEVs and RNA granules, with 13 shared proteins, highlighting a unique molecular signature for HD. STRING and KEGG pathway analyses revealed enriched pathways related to neurodegenerative diseases, suggesting broader impacts on neurodegenerative processes. Overlapping GO terms between RNA granules and sEVs point to functional interactions, particularly in RNA transport and metabolism. Notably, WDR1, a protein associated with mHTT-RNA complexes, was identified in both HD sEVs and RNA granules, suggesting its role in HD pathogenesis by influencing RNA granule formation and facilitating intercellular communication via sEVs. Our findings demonstrate that mHTT alters the composition of sEVs and RNA granules in HD. The detection of miRNAs, zinc finger proteins (ZNFs), and lncRNAs in sEVs suggests that HD cells may attempt to manage stress and intercellular signaling. The identification of overlapping proteins like WDR1, RANBP6, and ITGAV offers potential biomarkers and therapeutic targets. This study enhances our understanding of HD pathology by revealing the differential sorting of RNA and proteins in HD, with implications for early diagnosis and targeted therapies.Die Huntington-Krankheit (HD) ist eine neurodegenerative Erkrankung, die durch progressive neuronale Degeneration charakterisiert ist und für die es derzeit keine Therapie gibt. Aktuelle Forschungsergebnisse deuten darauf hin, dass RNA-Granula (wie Stress-Granula und P-Bodies) und kleine extrazelluläre Vesikel (sEVs) eine entscheidende Rolle bei der zellulären Dysfunktion bei HD spielen. Beide Kompartimente teilen Merkmale wie ihre Verbindung zum Prozess der liquid-liquid phase separation (LLPS) und in beiden Kompartimenten vorkommende RNA-bindende Proteine. Die Beziehung zwischen mutiertem Huntingtin (mHTT) und ihrem gemeinsamen Inhalt ist bislang jedoch nicht vollständig erforscht. In der vorliegenden Arbeit wurden die transkriptomischen und proteomischen Profile von sEVs und RNA-Granula in einem Modell, das mHTT exprimiert, untersucht um ihre molekularen Interaktionen bei HD zu verstehen. Unsere Ergebnisse zeigen signifikante Veränderungen in der Genexpression sowohl in sEVs als auch in RNA-Granula. Long non coding RNAs (lncRNAs) waren in beiden Kompartimenten reichlich vorhanden, und ihre Expression verschob sich bei HD, was auf ihre Beteiligung an der Krankheitsprogression schließen lässt. Die Analyse der differentiellen Genexpression, insbesondere der lncRNAs, stimmt mit den RNA-Sequenzierungsdaten aus den EVs von HD-Patientenplasma überein. Darüber hinaus werden 139 Gene in unserer Markerliste durch den Repressor Element 1 Silencing Transcription Factor (REST) reguliert, der bei HD unterbrochen ist. Drei Markergene (SNHG7, lnc-LHR1 und lnc-DUXA-1) wurden mittels RNA-FISH in RNA-Granula validiert und zeigten eine teilweise Ko-Lokalisierung mit YB1-positiven Stress-Granula. Die qRT-PCR bestätigte eine erhöhte Expression aller fünf Markergene (lnc-SLC30A5-6, SNHG7, SNHG12, lnc-LHR1, and lnc-DUXA-1) in HD-RNA-Granula. Dieser Marker zeigten auch in sEVs eine erhöhte Expression während die anderen zwei Variabilität zeigten. Um die Relevanz unserer Ergebnisse zu überprüfen, haben wir die Expressionsmuster von HD sEV-Markergenen mit einem kürzlich veröffentlichten RNA-Sequenzierungsdatensatz von Plasma-EVs von HD-Patienten verglichen. Unsere Ergebnisse zeigen eine stärkere Korrelation zwischen der Prä-HD-Gruppe und unserem Zellmodell, was darauf hindeutet, dass unser Modell die frühen Stadien der HD-Progression besser wiedergibt. Wir haben auch unterschiedliche Proteinprofile in HD sEVs und RNA-Granula identifiziert, mit 13 gemeinsamen Proteinen, was eine einzigartige molekulare Signatur für HD hervorhebt. STRING- und KEGG-analysen ergaben eine Anreicherung von Signalwegen, die mit neurodegenerativen Erkrankungen in Verbindung stehen. Sich überschneidende GO-Terme zwischen RNA-Granula und sEVs deuten auf funktionelle Interaktionen hin, insbesondere beim RNA-Transport und -Stoffwechsel. Insbesondere WDR1, ein Protein, das mit mHTT-RNA Komplexen assoziiert ist, wurde sowohl in HD sEVs als auch in RNA-Granula identifiziert, was auf seine Rolle in der HD-Pathogenese hinweist, indem es die Bildung von RNA-Granula beeinflusst und die interzelluläre Kommunikation über sEVs erleichtert. Unsere Ergebnisse zeigen, dass mHTT die Zusammensetzung von sEVs und RNA-Granula bei HD verändert. Der Nachweis von miRNAs, Zinkfingerproteinen (ZNFs) und lncRNAs in sEVs deutet darauf hin, dass HD-Zellen versuchen könnten, Stress und interzelluläre Signalwege verändert zu regulieren. Die Identifizierung von sich überlappenden Proteinen wie WDR1, RANBP6 und ITGAV zeigt potenzielle Biomarker und therapeutische Ziele auf. Diese Studie erweitert unser Verständnis der HD-Pathologie, indem sie die unterschiedliche Sortierung von RNA und Proteinen bei HD aufklärt, was für die Frühdiagnose und gezielte Therapien nützlich sein kann

    57

    full texts

    1,790

    metadata records
    Updated in last 30 days.
    Publikations- und Dokumentenserver der Universitätsbibliothek Siegen is based in Germany
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇