14 research outputs found

    A Qualitative Representation of Spatial Scenes in R2 with Regions and Lines

    Get PDF
    Regions and lines are common geographic abstractions for geographic objects. Collections of regions, lines, and other representations of spatial objects form a spatial scene, along with their relations. For instance, the states of Maine and New Hampshire can be represented by a pair of regions and related based on their topological properties. These two states are adjacent (i.e., they meet along their shared boundary), whereas Maine and Florida are not adjacent (i.e., they are disjoint). A detailed model for qualitatively describing spatial scenes should capture the essential properties of a configuration such that a description of the represented objects and their relations can be generated. Such a description should then be able to reproduce a scene in a way that preserves all topological relationships, but without regards to metric details. Coarse approaches to qualitative spatial reasoning may underspecify certain relations. For example, if two objects meet, it is unclear if they meet along an edge, at a single point, or multiple times along their boundaries. Where the boundaries of spatial objects converge, this is called a spatial intersection. This thesis develops a model for spatial scene descriptions primarily through sequences of detailed spatial intersections and object containment, capturing how complex spatial objects relate. With a theory of complex spatial scenes developed, a tool that will automatically generate a formal description of a spatial scene is prototyped, enabling the described objects to be analyzed. The strengths and weaknesses of the provided model will be discussed relative to other models of spatial scene description, along with further refinements

    Simulation of Volumetrically Heated Pebble Beds in Solid Breeding Blankets for Fusion Reactors: Modelling, Experimental Validation and Sensitivity Studies

    Get PDF
    Die Bruteinheiten sind die zentralen Komponenten des sogenannten Helium Cooled Pebble Bed (HCPB) Brut Blankets. Diese Komponenten erfüllen zwei Schlüsselfunktionen eines nuklearen Fusionsreaktors: Erbrüten des benötigten Tritiums, um eine Selbstversorgung des Reaktors mit Tritium zu erreichen, und Extrahieren von Wärme, die zur Erzeugung von Elektrizität genutzt werden kann. Die Bruteinheiten bestehen aus einem Schüttbett aus Lithium-Orthosilikat (Li4SiO4) als Tritium-Brutmaterial und einem Beryllium Schüttbett als Neutronen-Multiplikator. Eine Besonderheit, die in den Schüttbetten auftritt, sind stark nichtlineare thermo-mechanische Phänomene unter Neutronenbestrahlung während des Betriebs. Diese Phänomene beeinflussen wiederum die Wärmeübertragungsfähigkeit und somit das Temperaturfeld dieser granularen Materialien. Auf der anderen Seite spielt das Temperaturfeld eine wichtige Rolle bei den zwei vorhergenannten Schlüsselfunktionen des Reaktors, da das Erbrüten von Tritium und die Wärmeübertragung hauptsächlich vom thermo-mechanischen Verhalten dieser Schüttbetten abhängt. Daher ist die korrekte Vorhersage und Kontrolle des thermo-mechanischen Verhaltens ein Schlüsselfaktor für die Umsetzbarkeit dieses Brut Blanket Konzepts. In dieser Dissertation wurde eine geschlossene Validierungsstrategie zur thermo-mechanischen Validierung der Bruteinheiten entwickelt. Diese Strategie basiert auf der Entwicklung von speziellen Test- und Modellierungswerkzeugen, die zur Qualifikation der thermo-mechanischen Funktionalität dieser Komponenten in einer Out-of-pile Versuchsreihe benötigt werden. Der Neutronenfluss in den Bruteinheiten erzeugt eine nichthomogene Erwärmung der Schüttbetten, der bei einem Out-of-pile Experiment durch ein externes Heizsystem ersetzt werden muss, wobei die Störung des Schüttbetts möglichst gering zu halten ist. Aus diesem Grund wurde ein Heizsystem entwickelt, das diese volumetrische Heizung simuliert. Dieses Heizsystem basiert auf ohmscher Heizung und linienförmigen Heizelementen, die die punktförmigen Wärmequellen des granularen Materials durch linienförmige Wärmequellen annähern. Diese linienförmigen Wärmequellen repräsentieren „längliche Kügelchen“ in diskreten Positionen, die nahe genug angeordnet sind, um die im funktionalen Material auftretenden thermischen Gradienten zu reproduzieren. Das Heizerkonzept wurde für Li4SiO4 entwickelt und basiert auf einer hexagonalen Matrix-Anordnung von linienförmigen und parallelen Heizelementen mit einem Durchmesser von 1 mm und einem Abstand von jeweils 7 mm. Dasselbe Prinzip kann angewandt werden, um die nukleare Erwärmung in Beryllium Schüttbetten zu reproduzieren, indem man die Abstände und Leistung der Heizelemente anpasst. Ein Satz gleichförmig verteilter Thermoelemente in Quer- und Längsrichtung in der Mittelebene des Schüttbetts ermöglichen eine zweidimensionale Temperaturrekonstruktion der Messebene durch biharmonische Spline-Interpolation. Dieses Heizsystem wurde in einen relevanten Bereich der Bruteinheit eingebaut und der Konzeptnachweis wurde in einem PRE-test Mock-Up eXperiment (PREMUX) erbracht, das im Rahmen dieser Dissertation entwickelt und gebaut wurde. Die Packungsdichte des Schüttbetts mit und ohne Heizsystem zeigt keinen signifikanten Unterschied, was einem indirekten Nachweis der geringen Störung durch das Heizsystem entspricht. Diese geringe Störung wurde durch in-situ Messungen der effektiven thermischen Leitfähigkeit des Schüttbetts bei Raumtemperatur mit der Hot-Wire-Methode bestätigt, die eine gute Übereinstimmung mit der verfügbaren Literatur zeigt. Stationäre Testreihen mit 5 verschiedenen Heizleistungen, die die höchste zu erwartende Wärmeerzeugung sowie relevante transiente Pulse enthalten, wurde durchgeführt und zeigten, dass das Konzept geeignet ist, die thermischen Gradienten innerhalb des Schüttbetts nachzuahmen. Die zweidimensionale Abbildung der Temperaturverteilung zeigt eine fast symmetrische Verteilung bei jedem Leistungsniveau und es konnten keine signifikanten Unterschiede der Temperatur an der oberen und unteren Oberfläche an der Verbindungsschicht zwischen dem Schüttbettrand und der Testbox von PREMUX beobachtet werden. Daher kann kein deutlicher Effekt in der Temperaturverteilung durch die Bildung möglicher Hohlräume nach mehrmaliger nicht-elastischer Kompression des Schüttbetts beobachtet werden. Zwei sich ergänzende Methoden wurden mit dem Ziel entwickelt, ein umfassendes Modellierungs-Werkzeug für Vorhersage und Validierungszwecken bereitzustellen. Die erste Methode ist ein deterministisches, vereinfachtes thermo-mechanisches Modell, das in dem kommerziellen Finite–Elemente-Code ANSYS implementiert ist. Dieses Modell repräsentiert grundlegende Phänomene innerhalb des Schüttbetts: Nichtlineare Elastizität, Drucker-Prager Cap Plastizität, eine nicht-assoziatives Fließgesetz und ein anisotropes Verfestigungsgesetz. Eine erste Validierung des Modells anhand des Vergleichs der einachsigen Kompressionsspannung von in der Literatur vorhandenen einachsigen Kompressionstests mit der Dehnung des Schüttbetts bei verschiedenen Temperaturen zeigt eine gute Übereinstimmung (root mean square errors (RMSE) < 10%). Die Anwendung des Modells auf PREMUX hat ebenfalls eine im Allgemeinen gute Übereinstimmung der Temperaturverteilungen, die während der Experimentdurchführung mit PREMUX aufgezeichnet wurden, gezeigt. Die vorhergesagten hydrostatischen Spitzendrücke betragen etwa ~2.1 MPa und treten um den zentralen Heizer und die Thermoelemente auf, wohingegen im Volumen des Schüttbetts die maximalen Werte bei etwa 1.4 MPa liegen. Laut Literatur entsprechen solche hydrostatischen Drücke einer maximalen Kontaktkraft der Kügelchen von 2~3 N, was unterhalb der bekannten durchschnittlichen Zerdrückungs-Last dieser Kügelchen ist. Daher wird ein geringer Anteil an zerbrochenen Kügelchen in PREMUX erwartet, was später durch eine Analyse der Kügelchen nach Beendigung des Experiments bestätigt wurde. Der zweite Modellierungs-Ansatz basiert auf einer probabilistischen Finite-Elemente-Methode, die die inhärenten Unsicherheiten der Eingangsparameter des Modells berücksichtigt und erlaubt, eine stochastische Sensitivitätsanalyse durchzuführen, um statistische Informationen über die Ausgänge der Modells zu erhalten. Dieser Ansatz ermöglicht die formale Validierung des Modells durch die Definition eines Kriteriums basierend auf statistischen Daten von Modell und Experiment. Diese Vorgehensweise wurde in einem thermischen Modell von PREMUX in ANSYS und dem DesignXplorer-Modul implementiert. Nach der Bestimmung und Charakterisierung der stochastischen Eingangsparameter des Modells wurde ein Design of Experiments (DoE) für jedes Leistungs-Level des Heizsystems durchgeführt, um einen Satz von Designpoints zu erhalten, der in einem weiteren Schritt dazu genutzt wurde, ein Response-Surface mithilfe von geeigneten Interpolationsverfahren (Meta-Modelle) für jeden Modellausgang aufzubauen. Ein Modellausgang entspricht dabei jeweils einer Temperatur des Schüttbetts in der Messebene von PREMUX. An diesen Punkten ersetzen die Meta-Modelle das Finite-Elemente-Modell und tausende Berechnungen können durchgeführt werden, um stochastische Stichproben zu erzeugen und auf diese Weise die Wahrscheinlichkeitsdichtefunktionen der Modellausgänge zu erhalten. Als Validierungskriterium wird die Steigung einer linearen Regression zwischen den stochastischen Modellausgängen und den Vergleichswerten aus dem PREMUX Experiment vorgeschlagen, welches einen quantitativen Übereinstimmungswert (1:1) und eine statistische Signifikanz (95% Konfidenz) gibt

    Statistical Analysis of Resilience Distribution and Application to Rural Electric Distribution System subjected to Hurricane Wind

    Get PDF
    Title from PDF of title page, viewed January 13, 2022Dissertation advisor: ZhiQiang ChenVitaIncludes bibliographical references (page 140-149)Thesis (Ph.D.)--School of Computing and Engineering, Department of Earth and Environmental Sciences. University of Missouri--Kansas City, 2021Several mathematical frameworks and models are proposed to quantify the resilience of power systems against hurricane events. However, these frameworks contribute to the urban area's large-scale transmission system or networked power delivery system. They are barely applicable to the rural power distribution system, whose intrinsic properties vary distinctively compared to an urban area. These inherent properties such as less robustness due to the high vulnerability of aged wooden poles, topology characterization as a set of linear subsystems that emanate from one power substation and individually feature zero redundancy and cascading effect, and slow recovery due to low socio-economic resources and geospatially sparse customers make it less resilient. This study thus proposes a fully probabilistic and analytical measurement framework for assessing the resilience of linear power distribution systems affected by hurricane wind. The proposed framework includes the mechanical analysis of coupled wooden-pole and feeder-line as a system unit, the definition of component restoration and system-level recovery functions, and a new resilience measure termed the total mean system-resilience (TMSR). Numerical experimentation is provided that validates the effectiveness and the analytical tractability of the framework. The insight that how physical aging, local resourcefulness, and spatial sparseness interplay and affect the system resilience is shed quantitatively. On the other hand, from a critical synthesis of the existing literature towards several quantitative resilience measures or ambiguously termed metrics frameworks for quantifying the resilience of civil infrastructure, the author found informational inadequacy on taking objective decisions such as resilience acceptance or parameter strengthening prioritization. Two ingrained drawbacks of such measurements are lack of theoretical basis in 1. Discriminating relatively how a parametric infrastructure system is more resilient than a different one or the same one subject to some changed conditions and, 2. answering which input parameter is most influential while assessing the resilience measure. This study thus explores and suggests several statistical tools such as 1. A nonparametric approach to perform sensitivity analysis of each input parameter to output resilience and check for the robustness of the proposed resilience assessment framework. 2. Copula-based dependence analysis to determine the most influential parameter and tail dependencies of the resilience measure with each input parameter. 3. Information-theoretic distance measures termed Resilience Distance (RD) measures to characterize how a system evolves as a function of system variables from the realm of materials, hazards, or socioeconomic resourcefulness. 4. Nonparametric two-sample test to check if the calculated resilience can be accepted when compared to targeted resilience of the same system. Numerical evaluation is conducted using these statistical tools on the proposed probabilistic resilience assessment framework of stochastically modeled rural electrical distribution system, and numerical measures show that the proposed statistical analysis of the resilience distribution can be a possible objective decision-making tool.Introduction -- State of Art -- Probabilistic Resilience Measurement for Rural Electric Distribution System Affected by Hurricane Events -- Global Sensitivity Analysis and Dependence Modeling -- Probabilistic Resilience Distance Measure and Hypothesis Testing -- Conclusions and Future Work -- Appendix A. 3.9 AND 3.11 Equations Formulations -- Appendix B. Main MATLAB Code

    Theory for Molecular Tests of Fundamental Physics

    Get PDF
    Even today, fundamental difficulties remain in the understanding of our universe. Among those are inexplicable phenomena like the enormous excess of matter over anti-matter (baryon asymmetry) — connected to the question why is there matter at all — or dark matter (DM) and dark energy which are invoked to explain the structure and evolution of our universe, and problems like the unification of quantum theory with gravity. In order to take a step closer to resolving such issues, it is important to test the known laws of physics, summarized in the standard models of particle physics (SM) and cosmology (ΛCDM model), as accurately as possible. Direct experimental tests of the SM can be carried out with high energies at large colliders like the LHC at CERN, and direct tests of the ΛCDM model are usually performed at large observatories like LIGO. In contrast, the theoretical foundations of chemistry are mostly well understood. Hence, molecules are theoretically and experimentally well controllable. Thus, measurements in standard-sized laboratories with ultra-high precision are possible, so that the less well understood laws of physics can be tested. Such low-energy experiments provide indirect tests of the standard models in the realm of chemistry by probing the fundamental symmetries of nature. Therewith, these tests are complementary to direct tests of the laws of physics in cosmology or high-energy physics. In this cumulative thesis quantum chemical methods are developed and applied to design new experiments and improve existing experiments that employ molecules for tests of fundamental symmetries and, therewith, search for new physics beyond the standard models (BSM). A simultaneous violation of parity and time-reversal symmetry (P,T) is closely connected to baryon asymmetry. P,T-violation appears in a larger amount in unifying BSM theories than in the SM itself. P,T-violation on the elementary particle level is relativistically enhanced in heavy atoms and heavy-elemental molecules and results in permanent electric dipole moments (EDMs) of atoms and molecules which are non-vanishing in the limit of vanishing electric fields. In the first part of this thesis, P,T-violations in diatomic and small polyatomic molecules are studied in order to find well-suited candidates for a first measurement of a permanent EDM. Within this study relativistic effects as well as effects due to the chemical environment of the heavy atom are systematically analyzed. Furthermore, the effects of various fundamental sources of P,T-violation that contribute to the P,T-odd EDM of a molecule are studied. It is discussed, how these sources can be disentangled from experiments that aim to measure the permanent EDMs of different molecules. Among this research one of the first calculations of P,T-odd effects in polyatomic molecules is presented. In the second part of this thesis, the applicability of chiral molecules as sensitive probes for P-violating cosmic fields is demonstrated. P-violating cosmic fields are predicted in several cold DM (CDM) models as well as in the standard model extension (SME) that allows for local Lorentz invariance violation (LLIV). LLIV appears in several theories that aim to unify quantum theory and gravity. It is shown that well-chosen chiral molecules containing heavy elements can improve present limits on P-odd interactions of electrons with cosmic fields by at least two orders of magnitude. This renders chiral molecules particularly interesting for searches for BSM physics. In order to guide future searches for candidate molecules, challenges that may appear in the theoretical description or the design of experiments are discussed. In the last part of this thesis, the possibilities to use a clock transition in the iodine molecule to limit LLIV are explored in cooperation with the BOOST collaboration. Quantum chemical studies of such effects in iodine are presented. These calculations are essential for an estimate of the expected sensitivity of the BOOST satellite mission, which employs the iodine molecular clock as probe for LLIV

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition

    NOTIFICATION!!!

    Get PDF
    The full content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition
    corecore