Technical University of Berlin

DepositOnce
Not a member yet
    14111 research outputs found

    Vereinfachungsstrategien und Extremalbeispiele von Simplizialkomplexen

    No full text
    Since the beginning of Topology, one of the most used approaches to study a geometric object has been to triangulate it. Many invariants to distinguish between different objects have been introduced over the years, the two most important surely being homology and the fundamental group. However, the direct computation of the fundamental group is infeasible and even homology computations could become computationally very expensive for triangulations with a large number of faces without proper preprocessing. This is why methods to reduce the number of faces of a complex, without changing its homology and homotopy type, are particularly of interest. In this thesis, we will focus on these simplification strategies and on explicit extremal examples. The first problem tackled is that of sphere recognition. It is known that 3-sphere recognition lies in NP and in co-NP, and that d-sphere recognition is undecidable for d > 4. However, the sphere recognition problem does not go away simply because it is algorithmically intractable. To the contrary, it appears naturally in the context of manifold recognition so there is a clear need to find good heuristics to process the examples. Here, we describe an heuristic procedure and its implementation in polymake that is able to recognize quite easily sphericity of even fairly large simplicial complexes. At the same time we show experimentally where the horizons for our heuristic lies, in particular for discrete Morse computations, which has implications for homology computations. Discrete Morse theory generalizes the concept of collapsibility, but even for a simple object like a single simplex one could get stuck during a random collapsing process before reaching a vertex. We show that for a simplex on n vertices, n > 7, there is a collapsing sequence that gets stuck on a d-dimensional simplicial complex on n vertices, for all d not in {1, n - 3, n - 2, n - 1}. Equivalently, and in the language of high-dimensional generalizations of trees, we construct hypertrees that are anticollapsible, but not collapsible. As for a second heuristic for space recognition, we worked on an algorithmic implementation of simple-homotopy theory, introduced by Whitehead in 1939, where not only collapsing moves but also anticollapsing ones are allowed. This provides an alternative to discrete Morse theory for getting rid of local obstructions. We implement a specific simple-homotopy theory heuristic using the mathematical software polymake. This implementation has the double advantage that we remain in the realm of simplicial complexes throughout the reduction; and at the same time, theoretically, we keep the possibility to reduce any contractible complex to a single point. The heuristic algorithm can be used, in particular, to study simply-connected complexes, or, more generally, complexes whose fundamental group has no Whitehead torsion. We shall see that in several contractible examples the heuristic works very well. The heuristic is also of interest when applied to manifolds or complexes of arbitrary topology. Among the many test examples, we describe an explicit 15-vertex triangulation of the Abalone, and more generally, (14k+1)-vertex triangulations of Bing's houses with k rooms. One of the classes of examples on which we run the heuristic are the 3-dimensional lens spaces, which are known to have torsion in their first homology. Using this examples (minus a facet), we managed to find 2-dimensional simplicial complexes with torsion and few vertices. Studying them we constructed sequences of complexes with huge torsion on few vertices. In particular, using Hadamard matrices we were able to give a quadratic time construction of a series of 2-dimensional simplicial complexes on 5n-1 vertices and torsion of size 2^{n \log(n)}. Our explicit series of 2-dimensional simplicial complexes improves a previous construction by Speyer, narrowing the gap to the highest possible asymptotic torsion growth proved by Kalai via a probabilistic argument.Seit den Anfängen der Topologie besteht einer der am häufigsten verwendeten Ansätze zur Untersuchung eines geometrischen Objekts darin, es zu triangulieren. Im Laufe der Jahre wurden viele Invarianten zur Unterscheidung zwischen verschiedenen Objekten eingeführt, die beiden wichtigsten dabei sind sicherlich die Homologie und die Fundamentalgruppe. Die direkte Berechnung der Fundamentalgruppe ist jedoch algorithmisch nicht durchführbar, und selbst Homologieberechnungen können bei Triangulationen mit einer großen Anzahl von Seiten ohne geeignete Vorverarbeitung sehr rechenintensiv werden. Aus diesem Grund sind Methoden zur Reduzierung der Anzahl der Seiten eines Komplexes, ohne dessen Homologie und Homotopietyp zu verändern, von besonderem Interesse. In dieser Arbeit werden wir uns auf diese Vereinfachungsstrategien und auf explizite Extremalbeispiele konzentrieren. Das erste Problem, das wir angehen, ist das der Sphärenerkennung. Es ist bekannt, dass die 3-Sphärenerkennung in NP und in co-NP liegt, und dass die d-Sphärenerkennung für d > 4 unentscheidbar ist. Das Problem der Sphärenerkennung verschwindet jedoch nicht einfach, nur weil es algorithmisch unlösbar ist. Im Gegenteil, es taucht ganz natürlich im Zusammenhang mit der Erkennung von Mannigfaltigkeiten auf, so dass ein klarer Bedarf besteht, gute Heuristiken zur Verarbeitung der Beispiele zu finden. Hier beschreiben wir ein heuristisches Verfahren und seine Implementierung in polymake, das in der Lage ist, die Sphärizität selbst großer Komplexe recht einfach zu erkennen. Gleichzeitig zeigen wir experimentell, wo die Grenzen für unsere Heuristik liegen, insbesondere für diskrete Morseberechnungen, was Auswirkungen auf Homologieberechnungen hat. Die diskrete Morse-Theorie verallgemeinert das Konzept der Kollabierbarkeit, aber selbst für ein einfaches Objekt, wie z.B. für ein einzelnes Simplex, kann man während eines zufälligen Kollaps-Prozesses steckenbleiben, bevor man eine finale Ecke erreicht. Wir zeigen, dass es für ein Simplex auf n Ecken, n > 7, eine kollabierende Sequenz gibt, die auf einem d-dimensionalen simpliziellen Komplex auf n Ecken stecken bleibt, für alle d nicht in {1, n - 3, n - 2, n - 1}. Äquivalent dazu, und in der Sprache der hochdimensionalen Verallgemeinerungen von Bäumen ausgedrückt, konstruieren wir Hypertrees, die antikollabierbar, aber nicht kollabierbar sind. Was eine zweite Heuristik zur topologische Typerkennung betrifft, so haben wir an einer algorithmischen Implementierung der 1939 von Whitehead eingeführten Simple-Homotopy-Theory gearbeitet, bei der nicht nur kollabierende, sondern auch antikollabierende Züge erlaubt sind. Dies bietet eine Alternative zur diskreten Morse-Theorie, um lokale Hindernisse zu beseitigen. Konkret haben wir eine spezialle Fassung der einfachen Homotopietheorie unter Verwendung der mathematischen Software polymake implementiert. Diese Implementierung hat den doppelten Vorteil, dass wir während der gesamten Reduktion im Bereich der simplizialen Komplexe bleiben; und gleichzeitig behalten wir theoretisch die Möglichkeit, jeden zusammenziehbaren Komplex auf einen einzigen Punkt zu reduzieren. Der heuristische Algorithmus kann insbesondere dazu verwendet werden, einfach zusammenhängende Komplexe zu untersuchen, oder, allgemeiner, Komplexe, deren Fundamentalgruppe keine Whitehead-Torsion haben. Wir werden sehen, dass die Heuristik in einen Vielzahl von kontrahierbaren Beispielen sehr gut funktioniert. Die Heuristik ist auch von Interesse, wenn sie auf Mannigfaltigkeiten oder Komplexe beliebiger Topologie angewendet wird. Unter den vielen Testbeispielen beschreiben wir eine explizite 15-Vertex-Triangulation der Abalone und, allgemeiner, (14k+1)-Vertex-Triangulationen von Bing-Häusern mit k Zimmern. Eine der Klassen von Beispielen, auf die wir die Heuristik anwenden, sind die 3-dimensionalen Linsenräume, von denen bekannt ist, dass sie Torsion in ihrer ersten Homologie haben. Unter Verwendung von Triangulierungen von Linsenräumen (minus eine Facette) ist es uns gellungen, 2-dimensionale simplizialen Komplexe mit Torsion und wenigen Ecken zu finden. Denen Untersuchung erlaubte es uns, Serien von Komplexen mit großer Torsion und einer kleinen Eckenanzahl zu konstruieren. Insbesondere konnten wir unter Verwendung von Hadamard-Matrizen eine Serie 2-dimensionale simplizialen Komplexe mit 5n-1 Ecken und einer Torsion der Größe 2^{n \log(n)} in quadratischer Zeit konstruieren. Unsere explizite Serie 2-dimensionaler simplizialer Komplexe verbessert eine frühere Konstruktion von Speyer, indem sie die Lücke zum höchstmöglichen asymptotischen Torsionswachstum verkleinert, das von Kalai über ein probabilistisches Argument nachgewiesen wurde

    Flying V- und Referenzflugzeugevakuierungssimulation und Untersuchung von Kabinenlayouts

    No full text
    While designing new aircraft, the safety of passengers is one of the most important aspects. The European Union Aviation Safety Agency thusly established minimum requirements for emergency evacuations. In an exemplary evacuation, the passengers have to leave the aircraft within 90 s through half of the evacuation doors. If this evacuation fails, the EASA does not grant permission for the use of this type of aircraft. Flying wings have especially big problems, because of their interior design and overall structure. The Flying V is a flying wing aircraft. The passengers sit inside the two wings, which are rotated against each other by 26°. The original Flying V shows significant similarities with the A350-900 considering wing span and passenger capacity. Because of this, the A350 is used as the reference aircraft for this thesis. Since testing evacuation scenarios is laborious, expensive and hazardous for the experimentees, simulations offer a safe and inexpensive alternative. The influence of different door constellations and interior arrangements, as well as seating distributions on the evacuation time can be efficiently determined and analyzed this way. Conventional, commercially available evacuation software is not applicable to the complex geometry of the Flying V. The goal of this thesis is to use a simulation tool developed by Raphael Hellmann and adjust it, so it can be used to make statements about the evacuation time of different Flying V models. Especially the relative time in comparison with the A350 is looked at. In order to achieve this goal, the rewritten simulation tool has to be calibrated and simulations for different scenarios have to be run. The results of the simulations showed that the small version of the Flying V is most likely able to manage the real evacuation, but the bigger version is not able to. Additionally, weaknesses in terms of evacuation of the A350 are uncovered. One weakness of the program which leads to lower evacuation times than reality is expected to be for the Flying V, was further examined with additional simulations. This leads to an increase on the simulated times, but the small Flying V is still expected to cope with the time limit.Beim Gestalten neuer Flugzeuge ist die Sicherheit der Passagiere einer der wichtigsten Aspekte. Die European Union Aviation Safety Agency legt deshalb Mindestanforderungen für eine Notfallevakuierung fest. In einer beispielhaft durchgeführten Evakuierung müssen die Passagiere innerhalb von 90 s das Flugzeug durch die Hälfte der Türen verlassen. Wenn diese Evakuierung fehlschlägt, wird das Flugzeug nicht zugelassen. Nurflügler haben dabei aufgrund der Innenraumaufteilung und des Gesamtaufbaus besonders große Probleme. Beim Flying V handelt es sich um einen Nurflügler. Die Passagiere sitzen in den zwei Flügeln, die in einem Winkel von ungefähr 26° aneinanderliegen. Das ursprüngliche Flying V weist dabei in Flügelspannweite und Passagierkapazität deutliche Ähnlichkeiten zum A350-900 auf, weswegen dieses Flugzeug als Vergleichsflugzeug herangezogen wird. Da das Testen von Evakuierungsszenarien mit Probanden aufwändig, teuer und gesundheitsgefährdend ist, bieten Simulationen eine sichere und kostengünstige Alternative. Dabei kann der Einfluss verschiedener Tür- und Innenraumanordnungen sowie Sitzplatzverteilungen auf die Evakuierungszeit bestimmt und analysiert werden. Da das Flying V über eine komplexe Geometrie verfügt, ist herkömmliche, kommerziell erwerbbare Simulationssoftware nicht nutzbar. Das Ziel dieser Arbeit ist es, ein am Fachgebiet entwickeltes Simulationstool so anzupassen und anzuwenden, dass Aussagen über die Evakuierungszeit verschiedener Flying V-Modelle getroffen werden können. Insbesondere die relative Zeit im Vergleich zum A350 ist dabei interessant. Dazu wird das umgeschriebene Simulationstool kalibriert und die Simulation für verschiedene Szenarien durchgeführt. Die Simulationen haben ergeben, dass die kleinere Version des Flying V die echte Evakuierungssimulation bestehen kann, die größere Version allerdings nicht. Des Weiteren wurden Schwächen der A350 Varianten bei der Evakuierung aufgedeckt. Ein Schwäche des Programms, die die Simulationszeit der Flying Vs niedriger erscheinen lässt, als sie in der Realität wäre, wurde mit zusätzlichen Simulationen untersucht. Es wurde festgestellt, dass das kleine Flying V trotzdem die Evakuierung innerhalb des Zeitlimits bewältigen kann

    G-IQI – German Inpatient Indicators Version 5.4 : German national reference values of the year 2020

    No full text
    Die German Inpatient Quality Indicators (G-IQI) sind derzeit das umfassendste, auf Krankenhausabrechnungsdaten beruhende Indikatorensystem zur krankheitsspezifischen Abbildung des stationären Leistungsgeschehens in Akutkrankenhäusern. Die Indikatoren sind einerseits konzipiert, um so weit wie möglich medizinisch sinnvoll strukturierte Leistungskennzahlen und Behandlungsergebnisse auch für externe Nutzer transparent zu machen. Vor allem dienen sie aber der Ergebnisverbesserung im internen Qualitätsmanagement der Krankenhäuser. Die Indikatoren helfen den Kliniken, Verbesserungspotential anhand des Vergleiches ihrer Ergebnisse mit dem Bundesdurchschnitt zu erkennen und zu erörtern. Als Aufgreifkriterien für ergebnisorientierte Prozessanalysen – in Form von Peer Review Verfahren oder Mortalitäts- und Morbiditätskonferenzen – sind die Indikatoren unverzichtbar für eine gezielte und effiziente Fehlersuche und Qualitätsverbesserung. Das vorliegende Working Paper enthält die Bundesreferenzwerte des Jahres 2020 zur G-IQI Version 5.4. Für alle Indikatoren werden bundesweite Vergleichswerte ausgewiesen, die auf Grundlage der Mikrodaten der DRG-Statistik berechnet wurden. Die technischen Spezifikationen der Indikatoren sind im Anhang dargestellt und beziehen sich auf die im Jahr 2022 in Deutschland gültigen Kodiersysteme. Hinsichtlich der Indikatoren selbst handelt es sich bei der G-IQI Version 5.4 um eine Modifikation und Erweiterung der Version 5.3. Die vorliegende Version 5.4 greift im Auswertungsjahr 2020 56,9% aller Krankenhausfälle und 85,2% aller im Krankenhaus auftretenden Todesfälle in den Indikatoren auf und erreicht damit einen der höchsten Abdeckungsgrade unter den verfügbaren Indikatorensystemen. Mit den Bundesreferenzwerten stehen Vergleichswerte zur Verfügung, die Kliniken eine objektive Einschätzung ihrer eigenen Position im Vergleich zum Bundesdurchschnitt ermöglichen. Darüber hinaus bieten die Bundesreferenzwerte eine umfassende, an medizinischen Kategorien orientierte Analyse des bundesweiten akutstationären Versorgungsgeschehens. Neben den vollständigen Indikatorergebnissen auf der Bundesebene werden die alters- und geschlechtsspezifischen Sterblichkeiten angegeben, die der Berechnung der klinikspezifischen Erwartungswerte zugrunde liegen. Zusätzlich werden für ausgewählte Indikatoren Fallzahlverteilungen über die Kliniken dargestellt. Damit enthält dieses Working Paper diverse Auswertungen, die in keiner anderen publizierten Statistik veröffentlicht werden und ergänzt damit andere Systeme der Gesundheitsberichterstattung.The German Inpatient Quality Indicators (G-IQI) are the most comprehensive system of quality indicators based on administrative data. G-IQI allow a disease-specific monitoring of inpatient care in acute care hospitals. On the one hand, the indicators are designed to provide medically meaningful figures on hospital performance and outcomes for external users. On the other hand, the indicators serve as a tool for internal quality management and quality improvement in hospital care. The indicators may help hospitals to identify potential for improvement by comparing their own results with national figures. The indicators serve as triggers for peer reviews or morbidity and mortality conferences. Thus, the use of the indicators is essential to detect medical errors and to improve quality of care. The present working paper contains the German national reference values of the year 2020 for the G-IQI version 5.4. Reference values were calculated by using the microdata of the national hospital statistics database (DRG statistics) and are displayed for each indicator. The technical specifications of the indicators are attached in the appendix of this paper and refer to the German coding systems valid in 2022. The G-IQI version 5.4 represents a modification and expansion of the previous version 5.3. In the year of analysis 2020, the present G-IQI version 5.4 captures 56.9% of all inpatient cases and 82.5% of all in-hospital deaths. Thereby, the G-IQI version 5.4 achieves one of the highest coverages among available quality indicator systems. The national reference values of the indicators help hospitals to assess their own results as compared to national figures. Beyond that, the national reference values provide a comprehensive analysis of inpatient care in German acute care hospitals. In addition to the complete national indicator results, the age-and-sex specific mortality figures that are used to calculate expected deaths at the hospital level are displayed. Furthermore, distribution of case volume among hospitals is illustrated for selected indicators. By this means, the present working paper covers various figures which are not published by any other statistics and, thus, complements other systems of health care reporting

    Automatische Schlagzeug-Transkription mit Deep Neural Networks

    No full text
    The field of Music Information Retrieval (MIR) has gained a lot of importance over the last years. One important sub-field of MIR is the subject of Automatic Music Transcription (AMT) which focuses on extracting a musical score or a symbolic representation (e.g. MIDI) from an audio signal. This thesis explores the ability of deep neural networks to automatically transcribe drums – also known as Automatic Drum Transcription (ADT). In order to do so, this thesis proposes a deep neural network (DNN) architecture that is inspired by related work in the field of ADT. The backbone of this model is a convolutional recurrent neural network (CRNN) that is supposed to learn both spectral as well as structural patters. This model is compared to different deep neural network architectures, all of which try to extract latent feature representations from an audio signal and learn patterns to identify and distinguish between different drum instruments. The benchmark models are utilized to gauge the performance of the proposed model on evaluation datasets. The foundation of the training of the model is the publicly available dataset E-GMD introduced by Callender, Hawthorne, and Engel (2020) as it features 444.5 hours of labeled audio files. This thesis demonstrates the importance of data in a supervised deep learning setting by showing peculiarities of E-GMD that can impact the performance of the proposed model negatively. Furthermore, a new dataset is created consisting of random drum sequences (RGDD) to show that adding new data to an already existing dataset can be a viable regularization approach. Additionally, it is shown that random data can serve as standalone datasets and even outperform models that have been trained on sequences that were played by humans. For this, the proposed model is evaluated in three different settings. The first setting sheds light on the performance of the proposed model in a drums-only scenario, that is audio files that contain multiple drum instruments. After this, the same model is evaluated on files that only contain single instrument hits which are here referred to as stems. Lastly, it is investigated if models that were trained on drums-only sequences can generalize well in full-mix settings where accompanying instruments like bass, synthesizer, guitar, or vocals are present. In each of the aforementioned scenarios it is shown that training a model to perform more fine grained instrument predictions and later group them to a coarser instrument grouping can improve the overall performance of the model. That means that a model that was trained to transcribe for example 7 instruments is later used to only transcribe 3 distinct classes by grouping the corresponding predictions.Das Gebiet des Music Information Retrieval (MIR) hat in den letzten Jahren stark an Bedeutung gewonnen. Ein wichtiges Teilgebiet von MIR ist die automatische Musiktranskription (AMT), die sich auf die Extraktion einer Partitur oder einer symbolischen Darstellung (z.B. MIDI) aus einem Audiosignal konzentriert. Diese Arbeit untersucht die Fähigkeit von neuronalen Netzen, Schlagzeug automatisch zu transkribieren - auch bekannt als Automatic Drum Transcription (ADT). Zu diesem Zweck wird in dieser Arbeit eine Architektur für neuronale Netze (DNN) vorgeschlagen, die von verwandten Arbeiten aus dem Gebiet der ADT inspiriert ist. Das Grundgerüst dieses Modells ist ein Convolutional Recurrent Neural Network (CRNN), das sowohl spektrale als auch strukturelle Muster lernen soll. Dieses Modell wird mit verschiedenen neuronalen Netzwerkarchitekturen verglichen, die alle versuchen, latente Merkmalsrepräsentationen aus einem Audiosignal zu extrahieren und Muster zu lernen, um verschiedene Schlagzeuginstrumente zu identifizieren und zu unterscheiden. Die Benchmark-Modelle werden verwendet, um die Ergebnisse des vorgeschlagenen Modells auf Evaluationsdatensätzen zu beurteilen. Die Grundlage für das Training des Modells ist der öffentlich zugängliche Datensatz EGMD, der von Callender, Hawthorne, and Engel (2020) vorgestellt wurde und 444,5 Stunden annotierte Audiodateien enthält. Diese Arbeit demonstriert die Bedeutung von Daten in einer überwachten DeepLearning-Umgebung, indem sie Besonderheiten von E-GMD aufzeigt, die sich negativ auf die Ergebnisse des vorgeschlagenen Modells auswirken können. Außerdem wird ein neuer Datensatz erstellt, der aus zufälligen Schlagzeugsequenzen (RGDD) besteht, um zu zeigen, dass das Hinzufügen neuer Daten zu einem bereits vorhandenen Datensatz ein praktikabler Regularisierungsansatz sein kann. Darüber hinaus wird gezeigt, dass Zufallsdaten als eigenständige Datensätze dienen können und sogar Modelle übertreffen, die auf Sequenzen trainiert wurden, die von Menschen gespielt wurden. Zu diesem Zweck wird das vorgeschlagene Modell in drei verschiedenen Situationen evaluiert. Das erste Experiment beleuchtet die Ergebnisse des vorgeschlagenen Modells in einem reinen Schlagzeugszenario, d. h. Audiodateien, die mehrere Schlagzeuginstrumente enthalten. Danach wird dasselbe Modell für Dateien untersucht, die nur einzelne Instrumentenschläge eines einzigen Instruments enthalten, die hier als Stems bezeichnet werden. Schließlich wird untersucht, ob Modelle, die auf reinen Schlagzeugsequenzen trainiert wurden, auch in vollständigen Mischungen mit Begleitinstrumenten wie Bass, Synthesizer, Gitarre oder Gesang gute Ergebnisse erzielen können. In jedem der zuvor genannten Szenarien zeigt sich, dass das Training eines Modells für feinere Instrumentenprediktionen und deren spätere Gruppierung zu einer gröberen Instrumentengruppierung das Gesamtergebnis des Modells verbessern kann. Das bedeutet, dass ein Modell, das für die Transkription von beispielsweise 7 Instrumenten trainiert wurde, später durch Gruppierung der entsprechenden Prediktionen nur für die Transkription von 3 verschiedenen Klassen verwendet wird

    Sicherheitsanalyse von Hardware-Betriebssystem-Schnittstellen in Linux

    No full text
    While the System Call (SC) interface between the userspace and the Linux Operating System (OS) has received much attention, the interface between the hardware and the OS still lacks thorough analysis. In fact, for many years, a strict hardware-OS security boundary existed in theory, but it was not enforced in practice. Most OS software operated under the assumption of benign hardware, and omitted proper sanitization of peripheral inputs. However, in recent years this view has shifted, as multiple real world attacks arising from compromised hardware have been publicized. This led to the development of hardware and software based mitigations and sparked research interest in analysis methods geared towards the specific properties of hardware-OS interfaces. Still, existing methods continue to suffer from severe applicability and performance issues. E.g., many existing approaches either only support the dynamic analysis of a single peripheral device driver or target solely the Universal Serial Bus (USB) bus, thereby covering only a small fraction of potential attack vectors. In addition, most dynamic approaches are hindered due to the unique properties of software consuming peripheral input and report performance measures which are significantly lower compared to analysis tools targeting the SC interface. Furthermore, recently developed Protected Virtual Machine (PVM) technologies aim to transparently protect a complete commodity OS from a higher privileged component (the Hypervisor (HV)). In order to be effective, these technologies rely on secure access to virtualized hardware resources. However, under PVM execution, the access to critical resources like Random Access Memory (RAM) or the Central Processing Unit (CPU) is mediated by the highly privileged untrusted HV. In addition, hardware based mitigation mechanisms targeting non virtualized interfaces do not fully encompass the attack surface exposed the HV. E.g., traditionally inaccessible interfaces like Advanced Configuration and Power Interface (ACPI) or PCI Express (PCIe) still lack proper access control mechanisms, while mitigations to secure RAM and CPU interfaces require specialized approaches, that are geared towards the specific PVM technology. This thesis analyzes the security of hardware-OS interfaces under Linux. To that end, we develop generic analysis methods that address the aforementioned applicability and performance issues. In addition, we examine the security impact of HV mediation on virtual hardware interfaces in the context of PVM execution and describe several attack vectors based on the analysis results. While this work uncovers serious flaws in a wide variety of physical and virtual hardware interfaces, we hope that the developed generic analysis methods and the presented analysis results will continue to guide further improvements to the Linux OS, as well as PVM technologies, in order to protect against future hardware based attack.Während der System Call (SC) Schnittstelle zwischen der Benutzerseite und dem Linux Betriebssystem (OS) viel Aufmerksamkeit gewidmet wurde, hat die Schnittstelle zwischen der Hardware und dem OS noch keine tiefer greifende Analyse erfahren. Tatsächlich gab es in der Theorie zwar schon viele Jahre lang eine strenge Hardware-OS-Sicherheitsgrenze, diese wurde aber in der Praxis nicht durchgesetzt. Betriebssystemsoftware ging meistens von gutartiger Hardware aus und unterließ daher oftmals die ordnungsgemäße Kontrolle und Bereinigung von Peripherieeingaben. In den letzten Jahren hat sich diese Haltung jedoch geändert, da eine Reihe realer Angriffe, die von kompromittierter Hardware ausgingen, bekannt wurde. Dies führte zur Entwicklung von hardware- und softwarebasierten Gegenmaßnahmen und weckte Interesse an der Erforschung von Analysemethoden, die auf die spezifischen Eigenschaften von Hardware-OS-Schnittstellen ausgerichtet sind. Dennoch kämpfen die bestehenden Verfahren weiterhin mit schwerwiegenden Anwendbarkeits- und Leistungsproblemen. So unterstützen zum Beispiel viele bestehende Ansätze entweder nur die dynamische Analyse eines einzelnen Peripheriegerätetreibers oder sie zielen ausschließlich auf USB (Universal Serial Bus) und decken damit nur einen kleinen Teil potenzieller Angriffsvektoren ab. Darüber hinaus werden die meisten dynamischen Ansätze durch spezifische Eigenschaften der Software, die sich mit Eingaben von Peripheriegeräten befasst, beeinträchtigt und weisen daher im Vergleich zu Analysetools, die nur auf SC-Schnittstellen abzielen, deutlich niedrigere Performance-Werte aus. Außerdem zielen kürzlich entwickelte Technologien für Protected Virtual Machines (PVMs) darauf ab, ein komplettes Standardbetriebssystem transparent vor einer höher privilegierten Komponente (dem sogenannten Hypervisor (HV)) zu schützen. Um wirksam zu sein, sind diese Technologien auf einen sicheren Zugriff auf die virtualisierten Hardware-Ressourcen angewiesen. Bei der PVM-Ausführung wird jedoch der Zugriff auf kritische Ressourcen wie RAM oder CPU durch den hoch privilegierten, aber nicht als vertrauenswürdig einzustufenden HV vermittelt. Darüber hinaus können hardware-basierte Schutzmechanismen, die auf nicht virtualisierte Schnittstellen abzielen, nicht die gesamte Angriffsfläche, die dem HV ausgesetzt ist, erfassen. So sind z.B. für traditionell unzugängliche Schnittstellen wie das Advanced Configuration and Power Interface (ACPI) oder PCI Express (PCIe) noch immer keine geeigneten Zugriffskontrollmechanismen vorhanden, während Abhilfemaßnahmen zur Sicherung von RAM- und CPU-Schnittstellen spezielle Ansätze erfordern, welche auf die jeweilige PVM-Technologie abgestimmt sind. In dieser Arbeit wird die Sicherheit von Hardware-OS-Schnittstellen unter Linux analysiert. Zu diesem Zweck werden generische Analysemethoden entwickelt, welche die oben genannten Probleme der Anwendbarkeit und Leistungsproblematik adressieren. Darüber hinaus untersuchen wir die Sicherheitsauswirkungen der HV-Mediation auf virtuelle Hardware-Schnittstellen im Kontext der PVM-Ausführung und beschreiben mehrere Angriffsvektoren basierend auf den Analyseergebnissen. Diese Arbeit deckt schwerwiegende Schwachstellen in einer Vielzahl von physischen und virtuellen Hardware-Schnittstellen auf. Wir hoffen, dass die entwickelten generischen Analysemethoden und die vorgestellten Ergebnisse zu weiteren Verbesserungen des Linux-Betriebssystems und der PVM-Technologien führen werden, um sich so besser gegen zukünftige hardwarebasierte Angriffe zu schützen.H2020/832735/EU/Lawful evidence collecting and continuity platform development/LOCARDBMWi, 01MA17008, Industrial communication for factories (IC4F

    A novel technique for an alignment-insensitive density calibration of Thomson scattering diagnostics developed at W7-X

    Get PDF
    In most laboratory setups in plasma physics, including magnetic-confinement experiments for fusion research, laser-based Thomson scattering allows for absolutely calibrated density measurements without input from other diagnostics and with high spatial resolution. A common issue is the alignment stability of either the laser beam or the observation optics. Frequent recalibrations are typically required. This is a challenge in particular for larger fusion experiments; while beam paths tend to get longer, the access for alignment and calibration gets more restricted. Therefore, simple, fast and robust calibration methods are required. A novel calibration technique has been developed at W7-X to account for alignment variations in the calibration procedure. This will decrease the pulse-to-pulse variations significantly and allow for a longer time duration before a recalibration becomes necessary. By monitoring the beam position accurately, it could be shown that misalignment leads to deterministic and reproducible changes in the measured density. The introduced density errors can be corrected for by monitoring the laser beam for every individual laser pulse. In the last experimental campaign, this has been done retrospectively by introducing parallel shifts to the laser beam path in order to show the feasibility of this method. It could be demonstrated that the impact of introduced shifts on the electron density can be successfully corrected for. For future campaigns, the beam alignment will intentionally be varied during the absolute calibration in order to cover the full range of expected beam positions. During the actual experiments, the beam positions will be monitored likewise and each density profile will be evaluated with the most suitable calibration factor. While probably not needed for W7-X, vibrations of the observation optics could be included in the same way.EC/H2020/633053/EU/Implementation of activities described in the Roadmap to Fusion during Horizon 2020 through a Joint programme of the members of the EUROfusion consortium/Eurato

    Can minimal clinically important differences in patient reported outcome measures be predicted by machine learning in patients with total knee or hip arthroplasty? A systematic review

    Get PDF
    Objectives: To systematically review studies using machine learning (ML) algorithms to predict whether patients undergoing total knee or total hip arthroplasty achieve an improvement as high or higher than the minimal clinically important differences (MCID) in patient reported outcome measures (PROMs) (classification problem). Methods: Studies were eligible to be included in the review if they collected PROMs both pre- and postintervention, reported the method of MCID calculation and applied ML. ML was defined as a family of models which automatically learn from data when selecting features, identifying nonlinear relations or interactions. Predictive performance must have been assessed using common metrics. Studies were searched on MEDLINE, PubMed Central, Web of Science Core Collection, Google Scholar and Cochrane Library. Study selection and risk of bias assessment (ROB) was conducted by two independent researchers. Results: 517 studies were eligible for title and abstract screening. After screening title and abstract, 18 studies qualified for full-text screening. Finally, six studies were included. The most commonly applied ML algorithms were random forest and gradient boosting. Overall, eleven different ML algorithms have been applied in all papers. All studies reported at least fair predictive performance, with two reporting excellent performance. Sample size varied widely across studies, with 587 to 34,110 individuals observed. PROMs also varied widely across studies, with sixteen applied to TKA and six applied to THA. There was no single PROM utilized commonly in all studies. All studies calculated MCIDs for PROMs based on anchor-based or distribution-based methods or referred to literature which did so. Five studies reported variable importance for their models. Two studies were at high risk of bias. Discussion: No ML model was identified to perform best at the problem stated, nor can any PROM said to be best predictable. Reporting standards must be improved to reduce risk of bias and improve comparability to other studies.TU Berlin, Open-Access-Mittel - 202

    Creation of innovative concepts in Aerospace based on the Morphological Approach

    Get PDF
    The development of innovative aircraft configurations can be an important contribution to achieve the emission reduction goals set for the aviation industry. However, current common aircraft conceptual design processes only allow the consideration of a limited number of initial configurations thus leaving possibly more efficient solutions out of scope. A significantly wider range of aircraft configurations can be taken into account by applying the Morphological Analysis. After a brief presentation of its historical background and actual applications in other domains, this article focuses on the use of this method and its benefits in aerospace. The summary and comparison of several applications in the field of aircraft design show that these still require a higher level of formalisation and robustness. For this purpose, the main steps required to integrate morphological analysis into the aircraft conceptual design phase based on the Advanced Morphological Approach are identified. These are the definition of the morphological matrix along with the evaluation criteria, the obtaining of option evaluations, filtering the impossible solutions and exploration of the solution space.DFG, 443831887, Konzeptentwurf und -modellierung komplexer energieeffizienter Flugsysteme unter Nutzung eines fortschrittlichen morphologischen Ansatze

    Friedrich Nietzsches großer Stil : zur Definition einer ästhetischen Kategorie

    No full text
    After 120 years from his death, Nietzsche´s philosophy remains more topical than ever. His “hermeneutics of suspicion” has been regarded as the cornerstone of the incredulity towards metanarratives that constitutes the essence of our postmodern condition. But Nietzsche´s “philosophy of the hammer” was not just a deconstructive weapon; it was also a constructive tool used for the creation of new values. The subject of the present investigation is one of these values: Nietzsche´s concept of Grand Style. Formulated in a late stage of his philosophical production (1884-1889), it is a dialectical synthesis of his earlier concepts of the Apollonian and Dionysian and constitutes for him a normative criterion of excellence in the ambit of artistic creation, specifically in architecture. Despite its aphoristic and non-systematic way of formulation, the concept of Grand Style exhibits a multi-layered degree of complexity in which ontological, aesthetic, and stylistic reflections converge simultaneously. The investigation is focused on underlining and tracing the connections between these three layers of meaning, with the aim of recognizing in Grand Style the germ of a proper aesthetic category, which was not fully developed by the philosopher due to his mental collapse of 1889. In congruence with this hypothesis, the investigation has as an implicit programmatic goal making of Nietzsche´s aesthetic philosophy not just a passive object of scientific-documentary research, but an active tool for critical thinking, which can be applied as a model of interpretation in different fields and contexts of artistic production.Auch 120 Jahre nach seinem Tod ist Nietzsches Philosophie aktueller denn je. Seine „Hermeneutik des Verdachts“ gilt als Grundstein für die Ungläubigkeit gegenüber Metanarrativen, die das Wesen unseres postmodernen Zustands ausmacht. Doch Nietzsches „Philosophie des Hammers“ war nicht nur eine dekonstruktive Waffe, sondern auch ein konstruktives Werkzeug zur Schaffung neuer Werte. Der Gegenstand der vorliegenden Untersuchung ist einer dieser Werte: Nietzsches Konzept des Großen Stils. In einer späten Phase seines philosophischen Schaffens formuliert (1884-1889), ist er eine dialektische Synthese seiner früheren Konzepte des Apollinischen und Dionysischen und stellt für ihn ein normatives Kriterium der Exzellenz im Bereich des künstlerischen Schaffens, insbesondere der Architektur, dar. Trotz seiner aphoristischen und unsystematischen Formulierung weist der Begriff des Großen Stils einen vielschichtigen Komplexitätsgrad auf, in dem ontologische, ästhetische und stilistische Überlegungen gleichzeitig zusammenlaufen. Die Untersuchung konzentriert sich darauf, die Verbindungen zwischen diesen drei Bedeutungsebenen herauszuarbeiten und nachzuzeichnen, mit dem Ziel, im Großen Stil den Keim einer eigenen ästhetischen Kategorie zu erkennen, die der Philosoph aufgrund seines geistigen Zusammenbruchs von 1889 nicht vollständig entwickelt hat. In Übereinstimmung mit dieser Hypothese hat die Untersuchung als implizites programmatisches Ziel, Nietzsches ästhetische Philosophie nicht nur zu einem passiven Objekt wissenschaftlich-dokumentarischer Forschung zu machen, sondern zu einem aktiven Werkzeug für kritisches Denken, das als Interpretationsmodell in verschiedenen Bereichen und Kontexten der künstlerischen Produktion angewendet werden kann

    7,248

    full texts

    14,111

    metadata records
    Updated in last 30 days.
    DepositOnce is based in Germany
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇