Universität der Bundeswehr München: AtheneForschung
Not a member yet
    200 research outputs found

    Neue Strategien zur Analyse von Strahlenbelastungen bei Raumfahrtmissionen

    Get PDF
    Die Dissertation beschreibt neben den Grundlagen der auftretenden Strahlenbelastungen bei Raumfahrtsystemen die Möglichkeiten von deren Analyse. Dabei werden neue Strategien für die Auslegung und Berechnung von Abschirmungen vorgestellt. Desweiteren wird vertieft auf die Analyse von Dosisbelastungen mittels der sogenannten Sektoranalyse eingegangen und es werden Methoden zur Erlangung besserer Ergebnisse vorgestellt. Das praktische Potenzial der neuen Strategien wird dann schlussendlich anhand eines Praxisfalls aufgezeigt

    Ayn Rand : Eine systematische Rekonstruktion ihres Denkens

    Get PDF
    Die vorliegende Arbeit nimmt eine systematische Rekonstruktion des Denkens der libertären russisch-amerikansichen Romancier-Philosophin Ayn Rand (1905-1982) vor. Da diese Denkerin keine abgeschlossene Abhandlung über ihr philosophisches System des „Objectivism“ vorgelegt hat, muss dieses aus ihrem Gesamtwerk („fiction“ und „non-fiction“) rekonstruiert werden. Dabei gliedert sich die Untersuchung in zwei interdependente Teile. Teil 1 präsentiert eine intellektuelle Biographie, die vor allem Ayn Rands historische Wurzeln in Russland und den USA erforscht. In ihren Romanen, vor allem dem Hauptwerk „Atlas Shrugged“ (1957), finden sich bereits umfangreiche philosophische Gedanken, die zusammengeführt und analyisiert werden. Die verschiedenen Aspekte von Rands Philosophie werden in Teil 2 der Arbeit einer eingehenden Untersuchung unterzogen. Ihr philosophisches System umfasst dabei die Bereiche: Epistemologie, Ethik, Politische und Ökonomische Theorie. Unter Hinzunahme anderer Denker wird Ayn Rands Philosophie aus verschiedenen Blickwinkeln betrachtet und Möglichkeiten und Grenzen ihres Ansatzes aufgezeigt.The present work submits a systematic reconstruction of Ayn Rand’s (1905-1982, a libertarian Russian-American novelist-philosopher) philosophical thinking. Because she did not present a comprehensive statement of her philosophy “Objectivism”, but develops her thought throughout her novels, her approach has to be reconstructed from all of her fiction and non-fiction texts. The present exploration is organized in two interdependent parts. Part 1 covers an intellectual biography in which her historical roots in Russia and the United States of America are analyzed. Her thinking is to be found in her novels, especially in her best-known und best-selling novel “Altas Shrugged” (1957), and it has to be collected from these. The branches of her philosophy are examined in Part 2. Her system includes: epistemology, ethics, political and economical theory. The possibilities and limits of philosophical approach are considered from different perspectives and thinkers

    Das Vehicle in the Loop : Ein Werkzeug für die Entwicklung und Evaluation von sicherheitskritischen Fahrerassistenzsystemen

    Get PDF
    Das „Vehicle in the Loop (VIL)“ ist eine Test- und Simulationsumgebung für Fahrerassistenzsysteme, welche die Vorzüge eines realen Versuchsfahrzeugs mit der Sicherheit und Reproduzierbarkeit von Fahrsimulatoren kombiniert. Als Werkzeug für Entwickler ausgelegt, wurde das VIL weiterentwickelt, um auch als Evaluationswerkzeug für sicherheitskritische Fahrerassistenzsysteme eingesetzt werden zu können. Hierfür wurde das VIL mit neuen Komponenten aufgebaut und auf eine vollständig virtuelle Visualisierung umgestellt. Mit Hilfe einer Validierungsstudie wurde geprüft, ob das VIL reales Fahrerverhalten abbildet. Hierbei konnte relative Validität bezüglich Reaktionszeit und aufgebrachtem Bremsdruck nachgewiesen werden. Gleichzeitig diente die Studie dazu, während des Aufbaus identifizierte Schwachstellen zu bestätigen und weitere Ansätze für die Verbesserung des VIL zu finden. Hierbei wurden drei Ansätze für eine Verbesserung des VIL aufgedeckt, welche näher betrachtet wurden. Bei der Auswahl des Head Mounted Displays (HMD) wurde beim Aufbau darauf geachtet, dass das darstellbare Blickfeld möglichst dem des Menschen entspricht. Jedoch war das ausgewählte HMD schwer und unhandlich, so dass dieses in einer zweiten Studie mit einem kleineren, leichteren HMD aber kleinerem Blickfeld verglichen wurde. Hierbei konnte gezeigt werden, dass das kleinere Blickfeld keinen signifikanten Einfluss auf das Fahrerverhalten hat. Zudem wurde das kleinere und leichtere HMD auch von den Probanden klar bevorzugt, so dass sich dieses als sinnvoll für die Verwendung im VIL durchsetzte. Der verwendete optische Tracker zur Verfolgung der Kopfausrichtung des Fahrers stellte im ersten VIL Aufbau die Fahrerbewegung nur stark verzögert dar. Deswegen wurde ein Headtracking-Verfahren entwickelt, welches die aktuelle Ausrichtung des Fahrerkopfs mit Hilfe von einem optischen Tracker und zwei Drehratensensoren berechnet und die Bewegung zusätzlich prädiziert, so dass die Latenz bei der Darstellung von Fahrerbewegungen signifikant verringert wurde. Durch den Einsatz einer VR-Visualisierung verliert der Fahrer die gewohnte Sicht auf den Innenraum des Fahrzeugs. Hierdurch geht die Möglichkeit der Interaktion mit dem Fahrzeug verloren und der Fahrer hat das Gefühl über die Straße zu fliegen. Um dem entgegen zu wirken, wurde ein Augemented Reality Konzept auf Basis von video-see-through erarbeitet, welches es ermöglicht, dem Fahrer sowohl den Fahrzeuginnenraum, wie auch die virtuelle Welt, in welcher er sich bewegt, darzustellen. Es konnte gezeigt werden, dass das Konzept viel Potential für eine bessere Darstellung im VIL bietet, dieses aber noch Verbesserungen bedarf bevor es im VIL für Probandenstudien eingesetzt werden kann. Durch die Weiterentwicklung des VIL hat dieses mittlerweile einen Reifegrad erreicht, welches erlaubt das VIL als kostengünstiges Werkzeug für die Entwicklung und Evaluation von sicherheitskritischen Fahrerassistenzsystemen einzusetzen.The Vehicle in the Loop (VIL) is a test and simulation tool to develop and evaluate driving assistant systems. Its greatest advantage is that the VIL combines the real driving experience with the safety and replicability of a driving simulator. Initially designed as a developer tool, the VIL was further developed to extend its field of operation to the evaluation of safety systems in the automotive context. For this purpose, the original VIL was reconstructed with the use of new hardware components and a virtual reality visualization. To proof that the VIL is capable of eliciting and promoting naturalistic driving behavior, an evaluation study was conducted in which driving scenarios were compared in reality and the VIL. In addition the evaluation study aimed at identifying further development needs. Initially a Head Mounted Display (HMD) with a field of view comparable to the natural field of view was chosen. However, it turned out that the weight and the lack of comfort of the device dominated the overall negative feedback given by participants. Thus, in an additional study, a smaller HMD was compared with the first HMD to identify the pivotal features that provide the best visual and wearing experience. Furthermore, the optical head tracker used for measuring the driver’s current head pose turned out to show a time lag which is perceived by the driver and thus affects the driving experience. Therefore, the head tracking hardware was supplemented with gyroscopes to additionally measure the drivers’ head turning rate. Based on the different sensor signals, a sensor fusion algorithm was implemented which reduces the lag. An additional reduction is achieved with a prediction of the head pose. In combination, these measures reduced the perceived lag in the head tracking significantly. Due to the virtual reality visualization, the driver has no visual feedback of the car interior. Furthermore, this visualization creates the feeling of flying over the street. To emphasize the impression of driving a car, a proof of concept for an augmented reality based on video-see-through was developed and evaluated. Hereby, the driver’s view is filmed by a camera which is mounted on the HMD. Before visualizing, the camera image is augmented with the virtual reality, which results in a view of the car’s interior and the virtual reality instead of the windshield’s view. It could be shown that the new concept of augmented reality based on video-see-through has a high potential to make driving in the VIL even more realistic. However, the concept requires further improvement before it can be used for the evaluation of driving assistant systems. Due to the reported advances in technological development, the VIL with virtual reality visualization has currently reached a level of technological readiness which enables the VIL to be used as a tool to develop and evaluate automotive safety assistance systems. Future developments show potential to promote naturalistic driving with the VIL even further

    Scalable 3D Surface Reconstruction by Local Stochastic Fusion of Disparity Maps

    Get PDF
    Digital three-dimensional (3D) models are of significant interest to many application fields, such as medicine, engineering, simulation, and entertainment. Manual creation of 3D models is extremely time-consuming and data acquisition, e.g., through laser sensors, is expensive. In contrast, images captured by cameras mean cheap acquisition and high availability. Significant progress in the field of computer vision already allows for automatic 3D reconstruction using images. Nevertheless, many problems still exist, particularly for big sets of large images. In addition to the complex formulation necessary to solve an ill-posed problem, one has to manage extremely large amounts of data. This thesis targets 3D surface reconstruction using image sets, especially for large-scale, but also for high-accuracy applications. To this end, a processing chain for dense scalable 3D surface reconstruction using large image sets is defined consisting of image registration, disparity estimation, disparity map fusion, and triangulation of point clouds. The main focus of this thesis lies on the fusion and filtering of disparity maps, obtained by Semi-Global Matching, to create accurate 3D point clouds. For unlimited scalability, a Divide and Conquer method is presented that allows for parallel processing of subspaces of the 3D reconstruction space. The method for fusing disparity maps employs local optimization of spatial data. By this means, it avoids complex fusion strategies when merging subspaces. Although the focus is on scalable reconstruction, a high surface quality is obtained by several extensions to state-of-the-art local optimization methods. To this end, the seminal local volumetric optimization method by Curless and Levoy (1996) is interpreted from a probabilistic perspective. From this perspective, the method is extended through Bayesian fusion of spatial measurements with Gaussian uncertainty. Additionally to the generation of an optimal surface, this probabilistic perspective allows for the estimation of surface probabilities. They are used for filtering outliers in 3D space by means of geometric consistency checks. A further improvement of the quality is obtained based on the analysis of the disparity uncertainty. To this end, Total Variation (TV)-based feature classes are defined that are highly correlated with the disparity uncertainty. The correlation function is learned from ground-truth data by means of an Expectation Maximization (EM) approach. Because of the consideration of a statistically estimated disparity error in a probabilistic framework for fusion of spatial data, this can be regarded as a stochastic fusion of disparity maps. In addition, the influence of image registration and polygonization for volumetric fusion is analyzed and used to extend the method. Finally, a multi-resolution strategy is presented that allows for the generation of surfaces from spatial data with a largely varying quality. This method extends state-of-the-art methods by considering the spatial uncertainty of 3D points from stereo data. The evaluation of several well-known and novel datasets demonstrates the potential of the scalable stochastic fusion method. The strength and the weakness of the method are discussed and direction for future research is given.Digitale dreidimensionale (3D) Modelle sind in vielen Anwendungsfeldern, wie Medizin, Ingenieurswesen, Simulation und Unterhaltung von signifikantem Interesse. Eine manuelle Erstellung von 3D-Modellen ist äußerst zeitaufwendig und die Erfassung der Daten, z.B. durch Lasersensoren, ist teuer. Kamerabilder ermöglichen hingegen preiswerte Aufnahmen und sind gut verfügbar. Der rasante Fortschritt im Forschungsfeld Computer Vision ermöglicht bereits eine automatische 3D-Rekonstruktion aus Bilddaten. Dennoch besteht weiterhin eine Vielzahl von Problemen, insbesondere bei der Verarbeitung von großen Mengen hochauflösender Bilder. Zusätzlich zur komplexen Formulierung, die zur Lösung eines schlecht gestellten Problems notwendig ist, besteht die Herausforderung darin, äußerst große Datenmengen zu verwalten. Diese Arbeit befasst sich mit dem Problem der 3D-Oberflächenrekonstruktion aus Bilddaten, insbesondere für sehr große Modelle, aber auch Anwendungen mit hohem Genauigkeitsanforderungen. Zu diesem Zweck wird eine Prozesskette zur dichten skalierbaren 3D-Oberflächenrekonstruktion für große Bildmengen definiert, bestehend aus Bildregistrierung, Disparitätsschätzung, Fusion von Disparitätskarten und Triangulation von Punktwolken. Der Schwerpunkt dieser Arbeit liegt auf der Fusion und Filterung von durch Semi-Global Matching generierten Disparitätskarten zur Bestimmung von genauen 3D-Punktwolken. Für eine unbegrenzte Skalierbarkeit wird eine Divide and Conquer Methode vorgestellt, welche eine parallele Verarbeitung von Teilräumen des 3D-Rekonstruktionsraums ermöglicht. Die Methode zur Fusion von Disparitätskarten basiert auf lokaler Optimierung von 3D Daten. Damit kann eine komplizierte Fusionsstrategie für die Unterräume vermieden werden. Obwohl der Fokus auf der skalierbaren Rekonstruktion liegt, wird eine hohe Oberflächenqualität durch mehrere Erweiterungen von lokalen Optimierungsmodellen erzielt, die dem Stand der Forschung entsprechen. Dazu wird die wegweisende lokale volumetrische Optimierungsmethode von Curless and Levoy (1996) aus einer probabilistischen Perspektive interpretiert. Aus dieser Perspektive wird die Methode durch eine Bayes Fusion von räumlichen Messungen mit Gaußscher Unsicherheit erweitert. Zusätzlich zur Bestimmung einer optimalen Oberfläche ermöglicht diese probabilistische Fusion die Extraktion von Oberflächenwahrscheinlichkeiten. Diese werden wiederum zur Filterung von Ausreißern mittels geometrischer Konsistenzprüfungen im 3D-Raum verwendet. Eine weitere Verbesserung der Qualität wird basierend auf der Analyse der Disparitätsunsicherheit erzielt. Dazu werden Gesamtvariation-basierte Merkmalsklassen definiert, welche stark mit der Disparitätsunsicherheit korrelieren. Die Korrelationsfunktion wird aus ground-truth Daten mittels eines Expectation Maximization (EM) Ansatzes gelernt. Aufgrund der Berücksichtigung eines statistisch geschätzten Disparitätsfehlers in einem probabilistischem Grundgerüst für die Fusion von räumlichen Daten, kann dies als eine stochastische Fusion von Disparitätskarten betrachtet werden. Außerdem wird der Einfluss der Bildregistrierung und Polygonisierung auf die volumetrische Fusion analysiert und verwendet, um die Methode zu erweitern. Schließlich wird eine Multi-Resolution Strategie präsentiert, welche die Generierung von Oberflächen aus räumlichen Daten mit unterschiedlichster Qualität ermöglicht. Diese Methode erweitert Methoden, die den Stand der Forschung darstellen, durch die Berücksichtigung der räumlichen Unsicherheit von 3D-Punkten aus Stereo Daten. Die Evaluierung von mehreren bekannten und neuen Datensätzen zeigt das Potential der skalierbaren stochastischen Fusionsmethode auf. Stärken und Schwächen der Methode werden diskutiert und es wird eine Empfehlung für zukünftige Forschung gegeben

    Präzise Positionierung mit Einfrequenz-Empfängern unter Nutzung der Potenziale des Galileo E5 AltBOC (15, 10)-Breitband-Signals

    Get PDF
    In der wissenschaftlichen Gemeinschaft ist derzeit die Denkweise verbreitet, dass präzise Positionierung lediglich mit Trägerphasenmessungen auf zwei oder mehreren Frequenzen realisierbar sei. Diese Annahme lässt sich auf folgende Tatsachen zurückführen: Zum einen, dass die ionosphärische Laufzeitverzögerung (als größte Fehlerquelle) durch die Verwendung von mindestens zwei Frequenzen eliminiert werden kann, zum anderen, dass Trägerphasenmessungen bei weitem genauer sind als Codestreckenmessungen, da sie weniger von Messrauschen und Mehrwegeeffekten beeinflusst sind. Dennoch kann die Einfrequenz-Positionierung mit der Einführung neuer GNSS (Galileo und COMPASS/BeiDou) und der Verfügbarkeit neuer Signale signifikant verbessert werden. Unter diesen vielen Innovationen sollte dem Galileo E5-Breitband-Signal besondere Aufmerksamkeit beigemessen werden. Seine einzigartigen Eigenschaften, darunter seine nominale Bandbreite von ca. 90 MHz (offizielle Bandbreite 51 MHz) und die AltBOC (15, 10) Modulation, ermöglichen eine erhebliche Steigerung der Genauigkeit von E5 Codestreckenmessungen sowohl im Hinblick auf reduziertes Codemessrauschen sowie auf die Mitigation der Multipath-Einflüsse, die bekanntlich kritische Merkmale bei der Genauigkeit von Codemessungen darstellen. Obwohl es eine technische Herausforderung ist, einen Galileo E5-Einfrequenz-Empfänger zu implementieren, könnte ein solcher die Genauigkeitslücke zwischen den herkömmlichen Einfrequenz- und Zweifrequenz-Empfängern (mit GPS L1) füllen. Hiervon könnte eine Vielzahl wissenschaftlicher und nicht-wissenschaftlicher Anwendungen im GNSS Positionierungsbereich profitieren. In der Tat kann eine auf der Einfrequenz-Positionierungsmethode basierende additive Kombination von Codestrecken- und Trägerphasenmessungen (sog. –„Code-plus-Carrier (CPC)“-Methode) die ionosphärische Laufzeitverzögerung eliminieren und somit präzise Positionsergebnisse mit Galileo E5-Einfrequenz-Daten über lange Distanzen erzeugen. Da die troposphärische Laufzeitverzögerung immer noch die Positionierungsgenauigkeit beeinträchtigen kann – sie kann aufgrund ihrer nicht-dispersiven Eigenschaften nicht vom CPC-Fehlerbudget eliminiert werden - , können entweder präzise externe Korrekturquellen (wie z.B. numerische Wettermodelle) oder zusätzliche troposphärische Verzögerungsparameter in der Prozessierung verwendet werden. Multipath-Effekte sind ortsspezifisch und beeinflussen die Codestreckenmessung am stärksten, weswegen sie in einigen Fällen mitigiert werden müssen. Die Galileo E5 CPC-Positionsergebnisse liefern unter Verwendung von relativen Positionierungsmethoden Genauigkeiten von 2 bis 5 cm über Basislinienlängen bis zu 1000 km nach einer Konvergenzzeit von etwa drei Stunden. Die lange Konvergenzzeit resultiert aus der Tatsache, dass die abgeleiteten CPC-Beobachtungsgrößen Mehrdeutigkeitsterme als zusätzliche Unbekannte enthalten. Dies erfordert im Regelfall eine längere Beobachtungszeit, um eine ausreichende Konvergenz der Parameter zu erzielen. Deshalb soll versucht werden, den Mehrdeutigkeitsterm durch herkömmliche Methoden wie z.B. die LAMBDA (Least-Squares Ambiguity Decorrelation Adjustment)-Methode, aufzulösen. Die Anwendung der LAMBDA-Methode bei der Galileo E5-CPC-Prozessierung ermöglicht es, die Mehrdeutigkeit innerhalb von 20 min zu fixieren und dann liefern die Positionsergebnisse die übliche Genauigkeit (2-5 cm). Jedoch benötigen bestimmte Anwendungen eine schnelle Bereitstellung der Positionsergebnisse, d.h. die geforderte Positionsgenauigkeit im Zentimeter-Bereich soll in Echtzeit oder nahezu Echtzeit (30 s bis 15 min) geliefert werden. Aus diesem Grund wird eine sogenannte „Rapid Convergence Filter (RCF)“-Methode basierend, auf der Kalman-Filterung neben dem konventionellen CPC-Ansatz implementiert. Die RCF-Methode prozessiert parallel Code- und Trägerphasenmessungen, um die Mehrdeutigkeitsterme innerhalb von ein paar Minuten über Basislinienlängen von ca. 10 km festzusetzen und Positionsergebnisse im Subdezimeter-Bereich zu liefern. Die ionosphärische Laufzeitverzögerung kann dabei als zeitabhängige Funktion geschätzt werden. Auch externe Unterstützung, wie IONEX-Karten oder GNSS aktive Netzwerke, können zu Hilfe kommen, um eine rasche Konvergenz der Positionsparameter zu erhalten. Alle Ergebnisse in dieser Arbeit basieren lediglich auf simulierten Daten, da die geplante volle Galileo-Konstellation erst im Jahr 2020 abgeschlossen sein wird und zum Zeitpunkt der Erstellung dieser Arbeit für die Berechnung von Positionen mit echten Galileo E5-Daten nicht ausreicht

    Die numerische Simulation von Nassbaggerstrategien im Kontext der Optimierung von Unterhaltungsmaßnahmen für die Schifffahrt

    Get PDF
    Jährlich werden mehrere Millionen Euro für die Unterhaltung der Fahrwassertiefen an den deutschen Schifffahrtstraßen und in den Häfen aufgewendet. Zur Reduktion dieser Kosten und der Verminderung der Eingriffe haben sich verschiedene Sedimentmanagement-Konzepte für die einzelnen Flüsse, Ästuare und Häfen ausgebildet. Nassbaggermaßnahmen stellen hier einen wichtigen integralen Bestandteil dar. Nassbaggerstrategien haben sich aus der Optimierung der Nassbaggermaßnahmen für die verschiedenen Gewässerabschnitte herausgebildet. Diese Arbeit widmet sich der numerischen Modellierung von Nassbaggerstrategien. Dazu wurde im Auftrag der Bundesanstalt für Wasserbau (BAW) das Softwarepaket DredgeSim entwickelt, dass die Berücksichtigung von Bagger- und Verbringmaßnahmen in mehrdimensionalen Feststofftransportmodellen erlaubt. Dazu stehen zwei grundsätzliche Konzepte zur Verfügung. Zum einen können mit DredgeSim Baggermengen mittels eines kriteriengesteuerten Baggerns prognostiziert werden, die für die Wiederherstellung der Fahrwassertiefen nach vorgegebenen Unterhaltungszielen erforderlich sind. Das entnommene Sedimentvolumen kann sodann auf vorgegebenen Verbringstellen eingebracht werden. Die Funktionalität des kriteriengesteuerten Baggerns wurde auf Grundlage der Entscheidungstheorie entwickelt. Des Weiteren können und Bagger- und Verbringmaßnahmen nach zeitgesteuerten Algorithmen definiert werden, nach denen eine Maßnahme eingleitet wird, wenn ein bestimmter Simulationszeitpunkt erreicht wird. Auf diese Weise kann auch eine Geschiebezugabe mit DredgeSim modelliert werden. Die Ergebnisse einer numerischen Modellierung von Nassbaggerstrategien müssen mitunter hinsichtlich unterschiedlicher, zum Teil auch konkurrierender Zielstellungen miteinander verglichen und bewertet werden. So sind Lösungen, die wirtschaftlich zu favorisieren sind nicht immer aus ökologischer Sicht durchsetzbar. Eine Analysemöglichkeit dieser Problematik bietet die mehrkriterielle Optimierung. Hier wurde mit Hilfe der Multi-Attribute Utility Theory ein Bewertungsmodell entwickelt, wie Nassbaggermaßnahmen mit unterschiedlichen Zielstellungen analysiert und bewertet werden können. Als Bewertungskriterien wurden hier in einem ersten Modell das Langzeitverhalten verbrachter Sedimente, die Unterhaltungskosten, Umweltaspekte und die Verwendung von Baggergut zur Sicherung strombaulicher Maßnahmen gewählt. Das Programmpaket DredgeSim wurde in seinen verschiedenen Funktionalitäten anhand von Modellen aus dem Projektbetrieb der BAW angewendet. So wurden mit Hilfe des kriteriengesteuerten Baggerns Baggermengen an einem Donauabschnittsmodell im Bereich der Isarmündung prognostiziert. An einem Rheinmodell wurde die Geschiebezugabe im Bereich Iffezheim modelliert. Beide Ergebnisse wurden mit Messdaten aus der Praxis verifiziert. An einem Modell der Tideelbe wurden verschiedene Nassbaggerstrategien simuliert. Dabei wurde die Eignung von Verbringstellen hinsichtlich des Oberwassereinflusses analysiert. Auch hier konnten plausible Schlussfolgerungen gezogen werden, wonach ein Verbringen bei geringem Oberwasserzufluss zu einem vergleichsweise schnellen Wiedereintritt der Sedimente in die zuvor gebaggerten Hafenbereiche führen kann. Die Grundlagen dieser Arbeit von den rechtlichen Aspekten im Umgang mit Baggergut, typischen Sedimentmangementkonzepten und entscheidungstheoretischen Grundlagen werden im ersten Teil dieser Arbeit behandelt. Die Entwicklung von DredgeSim, die mehrkriterielle Bewertung von Nassbaggerstrategien und die Anwendungsfälle aus der Praxis stellen den zweiten Teil dieser Arbeit dar

    Safety Concept and Partial Factors for Military Assessment of Existing Concrete Bridges

    Get PDF
    Military traffic often utilizes bridges designed and maintained by civilian authorities. These bridges are located not only in home and allied countries, but also in foreign theatres of operation. The use of civilian bridges by military vehicles is in the NATO countries regulated and governed by STANAG 2021. This standard, however, does not fully deliver the essential aspects such as defined safety concept or specified values for partial factors that are important for a safe and reliable crossing of military vehicles over existing bridges. This work is aimed at investigating the military loads and developing a suitable safety concept that can be utilized during the military assessment of concrete bridges. A number of factors must be taken into account, including target reliability index and probabilistic models related to dynamic amplification factor, static load due to military vehicle and applied load effect model. The calculated partial factors for semi-probabilistic safety concept are significantly dependent on the selected crossing condition. The results show that the military partial factors for assessment of existing bridges can be generally considered lower than those factors listed in modern structural codes for bridge engineering

    Kompakte Ringantennen für satellitengestützte und terrestrische Übertragungsdienste im Fahrzeug

    Get PDF
    In dieser Arbeit wird die kompakte Ringantennen für satellitengestützte und terrestrische Übertragungsdienste im Fahrzeug erläutert. Dabei wird ihre Funktionsweise für die Dienste US-SDARS, GNSS und DAB-L dieser Antenne vorgestellt. Außerdem wird diese Anennenstruktur in verschiedenen Aufbauten in Kombination mit Antennen anderer Dienste betrachtet. Für US-SDARS wird diese Antennenstruktur in verschiedenen Kombinationen mit Antennen des selben Diensten in Diversity-Antennen-Strukturen untersucht. Als Einzelantenne für US-SDARS und in Kombinationen mit Antennen anderer Dienste als auch in Diversity-Antennen-Strukturen werden abschließend die Messergebnisse im realen Szenario vorgestellt

    Zum hydraulischen Grundbruch an Baugrubenumschließungen bei luftseitiger Sicherung durch einen Auflastfilter in nichtbindigen Böden

    Get PDF
    Numerische Untersuchungen zum hydraulischen Grundbruch bei geringen Einbindetiefen und luftseitiger Sicherung durch einen Auflastfilter haben gezeigt, dass die herkömmlichen Nachweise nach DIN EN 1997-1:2009-09 (Eurocode 7) und DIN 1054:2010-12 bzw. nach EAU für geringe Einbindetiefen und bei luftseitiger Sicherung durch einen Auflastfilter auf der unsicheren Seite liegen können. Es wurde daher von Odenwald und Herten anhand numerischer Simulationen ein erweiterter Berechnungsansatz erarbeitet, welcher die vertikalen Strömungskräfte unterhalb des Fußes der Baugrubenumschließung berücksichtigt. Der Ersatzkörper, welcher beim erweiterten Berechnungsansatz zur Anwendung kommt, entspricht einem Stromfaden der bis unterhalb des Wandfußes reicht. Reibungskräfte werden keine berücksichtigt. Die Berechnungen auf der Grundlage dieses erweiterten Ansatzes ergeben jedoch unerwartete Ergebnisse, da eine gewisse Einbindetiefe der Baugrubenwand, welche größer null ist, den ungünstigsten Fall darstellt. Mittels weiterführenden Untersuchungen wird analysiert, ob es tatsächlich durch eine Reduktion der Einbindetiefe zu einer Erhöhung der Sicherheit gegen hydraulischen Grundbruch kommen kann. Weiterhin wird untersucht, inwiefern der erweiterte Berechnungsansatz aufgrund der getroffenen Vereinfachungen von den tatsächlichen Verhältnissen abweicht und welchen Einfluss diese Vereinfachungen auf den Nachweis der Sicherheit gegen hydraulischen Grundbruch haben. Theoretische und experimentelle Untersuchungen zum Versagen vertikal durchströmter Bodensäulen in einem Zylinder zeigen, dass sich in einer mit einem Auflastfilter belasteten Sandsäule ein Gewölbe ausbildet. Dies setzt die Übertragung von Reibungskräften zwischen Zylinderwand und Versuchssand bzw. Auflastfilter voraus. Die Größe der zusätzlich zum Eigengewicht wirkenden rückhaltenden Kräfte sind von der Lagerungsdichte des Versuchsbodens und der Dicke des Auflastfilters abhängig. Versuche zum hydraulischen Grundbruch bei luftseitiger Sicherung durch einen Auflastfilter zeigen des Weiteren, dass die Bruchkörperform beim hydraulischen Grundbruch sowohl von der Dicke des Auflastfilters als auch von der Einbindetiefe der Wand abhängig ist. Weiterhin bestätigen die mittels der Versuche bestimmten kritischen Potentialdifferenzen die Untersuchungsergebnisse von Odenwald und Herten hinsichtlich des Verlaufs der Bruchkurve. Auf Grundlage der Ergebnisse aus den theoretischen und experimentellen Untersuchungen wird ein modifiziertes Verfahren zum Nachweis der Sicherheit gegen hydraulischen Grundbruch vorgestellt. Die Form und Größe des modifizierten Ersatzkörpers ist von der Einbindetiefe der Wand und der Dicke des Auflastfilters abhängig und passt sich gut an die bei den Versuchen gemessene Bruchkörperform an. Weiterhin erlaubt das modifizierte Nachweiseverfahren den Ansatz der im Boden und im Auflastfilter wirkenden Reibungskräfte. Erste Verifizierungen anhand der Versuchsergebnisse zeigen eine gute Übereinstimmung.Numerical investigations of seepage failure at walls with a small embedded depth and a surcharge filter on the excavation side of the wall have shown that the traditional proof of seepage failure according to DIN EN 1997-1:2009-09 (Eurocode 7) and DIN 1054:2010-12 or to EAU can be on the unsafe side. For this reason, by means of numerical simulations an extended calculation approach was developed by Odenwald and Herten. The extended calculation approach takes into account the vertical flow forces below the toe of the retaining wall. The critical prism which is used in the advanced calculation method corresponds to a current thread which reaches below the wall toe. Friction forces are not taken into account. However, the calculation results based on this extended approach show unforeseen results. Hence a certain embedment depth of the pit wall, which is greater than zero, representing the worst case. By means of further studies it is investigated whether it can actually be that the safety against seepage failure increase by reducing the embedment depth. Furthermore, the influences of the simplifications due to the shape of the critical prism are investigated. Theoretical and experimental investigations on the failure of vertical flow in a soil column show that forms an arch in a loaded sand column. This requires the transfer of frictional forces between cylinder wall and sand or between cylinder wall and surcharge filter. The sizes of the frictional forces depend on the relative density of the soil and the thickness of the surcharge filter. Furthermore, seepage failure experiments with a surcharge filter on the excavation side of the wall show that the collapse body shape dependents on the thickness of the surcharge filter and the embedded depth of the wall. Furthermore, the critical potential differences determined by the experiments confirm the findings by Odenwald and Herten. Based on the results of the theoretical and experimental investigations, a modified method is presented to proof the safety against hydraulic heave. The shape and size of the modified theoretical collapse body depends on the embedment depth of the wall and the thickness of the surcharge filter and adapts well to collapse body measured in the experiments. Furthermore, the modified method of proof allows taking the friction forces in the sand and the surcharge filter into account. First verification based on the experimental results show good agreement

    Characterization of a turbulent separating/ reattaching flow using optical pressure and velocity measurements

    Get PDF
    The turbulent wake flow behind a generic spacecraft was investigated experimentally in the trisonic wind tunnel Munich at subsonic Mach numbers M = [0.3; 0.7]. The flow/ structure interaction which raised critical safety aspects on the real spacecraft in the past was studied. The characterization of the coherent flow structures was performed by means of transient optical and classical measurement techniques. The topology and dynamics of the wake flow and the pressure field were investigated with the 2C2D-PIV and the instationary PSP. The reattachment position as well as the local dynamic behavior of strong flow structures were successfully characterized and the presence of dominant vortex shedding at expected frequencies around f ≈ [400; 900] Hz was confirmed. It was the first time that the fluid/ structure interaction and the position of strongest stresses could be characterized experimentally with very high spatial and temporal resolution. A PSP system had to be established in order to perform the desired experiments. Therefore, basic components (e.g. calibration chamber, excitation, evaluation tool) had to be developed and the performance of the entire system had to be validated

    83

    full texts

    84

    metadata records
    Updated in last 30 days.
    Universität der Bundeswehr München: AtheneForschung is based in Germany
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇