14 research outputs found

    Tagungsband zum 21. Kolloquium Programmiersprachen und Grundlagen der Programmierung

    Get PDF
    Das 21. Kolloquium Programmiersprachen und Grundlagen der Programmierung (KPS 2021) setzt eine traditionelle Reihe von Arbeitstagungen fort, die 1980 von den Forschungsgruppen der Professoren Friedrich L. Bauer (TU MĂŒnchen), Klaus Indermark (RWTH Aachen) und Hans Langmaack(CAU Kiel) ins Leben gerufen wurde.Die Veranstaltung ist ein offenes Forum fĂŒr alle interessierten deutschsprachigen Wissenschaftlerinnen und Wissenschaftler zum zwanglosen Austausch neuer Ideen und Ergebnisse aus den Forschungsbereichen Entwurf und Implementierung von Programmiersprachen sowie Grundlagen und Methodik des Programmierens. Dieser Tagungsband enthĂ€lt die wissenschaftlichen BeitrĂ€ge,die bei dem 21. Kolloquium dieser Tagungsreihe prĂ€sentiert wurden, welches vom 27. bis 29. September 2021 in Kiel stattfand und von der Arbeitsgruppe Programmiersprachen und Übersetzerkonstruktion der Christian-Albrechts-UniversitĂ€t zu Kiel organisiert wurde

    Achieving Highly Reliable Embedded Software: An Empirical Evaluation of Different Approaches

    Full text link

    Programmiersprachen und Rechenkonzepte

    Get PDF
    Seit 1984 veranstaltet die GI-Fachgruppe "Programmiersprachen und Rechenkonzepte" regelmĂ€ĂŸig im FrĂŒhjahr einen Workshop im Physikzentrum Bad Honnef. Das Treffen dient in erster Linie dem gegenseitigen Kennenlernen, dem Erfahrungsaustausch, der Diskussion und der Vertiefung gegenseitiger Kontakte. In diesem Forum werden VortrĂ€ge und Demonstrationen sowohl bereits abgeschlossener als auch noch laufender Arbeiten vorgestellt, unter anderem (aber nicht ausschließlich) zu Themen wie - Sprachen, Sprachparadigmen - Korrektheit von Entwurf und Implementierung - Werkzeuge - Software-/Hardware-Architekturen - Spezifikation, Entwurf - Validierung, Verifikation - Implementierung, Integration - Sicherheit (Safety und Security) - eingebettete Systeme - hardware-nahe Programmierung. In diesem Technischen Bericht sind einige der prĂ€sentierten Arbeiten zusammen gestellt

    Vision-based neural network classifiers and their applications

    Get PDF
    A thesis submitted for the degree of Doctor of Philosophy of University of LutonVisual inspection of defects is an important part of quality assurance in many fields of production. It plays a very useful role in industrial applications in order to relieve human inspectors and improve the inspection accuracy and hence increasing productivity. Research has previously been done in defect classification of wood veneers using techniques such as neural networks, and a certain degree of success has been achieved. However, to improve results in tenus of both classification accuracy and running time are necessary if the techniques are to be widely adopted in industry, which has motivated this research. This research presents a method using rough sets based neural network with fuzzy input (RNNFI). Variable precision rough set (VPRS) method is proposed to remove redundant features utilising the characteristics of VPRS for data analysis and processing. The reduced data is fuzzified to represent the feature data in a more suitable foml for input to an improved BP neural network classifier. The improved BP neural network classifier is improved in three aspects: additional momentum, self-adaptive learning rates and dynamic error segmenting. Finally, to further consummate the classifier, a uniform design CUD) approach is introduced to optimise the key parameters because UD can generate a minimal set of uniform and representative design points scattered within the experiment domain. Optimal factor settings are achieved using a response surface (RSM) model and the nonlinear quadratic programming algorithm (NLPQL). Experiments have shown that the hybrid method is capable of classifying the defects of wood veneers with a fast convergence speed and high classification accuracy, comparing with other methods such as a neural network with fuzzy input and a rough sets based neural network. The research has demonstrated a methodology for visual inspection of defects, especially for situations where there is a large amount of data and a fast running speed is required. It is expected that this method can be applied to automatic visual inspection for production lines of other products such as ceramic tiles and strip steel

    Marine magnetotellurics on a continental margin: imaging the hydration and dehydration cycle of the Costa Rican subduction zone

    Get PDF
    At continental margins, the water content and its distribution play an important role in the subduction process. Water is released from the subducting slab in a series of metamorphic reactions and may trigger the onset of melting, cause crustal weakening and changes in the dynamics and thermal structure of subduction zones. However, the amount of water carried into the subduction zone and its distribution are not well constrained by existing data. They are subject of vigorous current research in the special research initiative (SFB 574) at University of Kiel and IFM-GEOMAR “Volatiles and Fluids in Subduction Zones: Climate Feedback and Trigger Mechanisms for Natural Disasters”. Electromagnetic methods like magnetotellurics have been widely used to recognize fluid release and melt production through enhanced electrical conductivities. In the framework of SFB 574, an offshore magnetotelluric experiment was performed in 2007-2008 along a profile crossing the trench, where the Cocos plate is thrust beneath the Caribbean plate. The marine profile was extended onshore by the Free University of Berlin, yielding a large-scale amphibious data set across the subduction zone with a profile length of 370 km. The main goal of the experiment is to image the fluid content and its distribution along the subducting plate and deeper Earth structure. The recorded electromagnetic time series have been processed to electromagnetic sounding curves (apparent resistivity & phase, and Tipper) at each station. As most of the stations lay on a cliffy continental shelf, they were highly susceptible to water enforced movement (tidal currents hitting the shelf). The data quality of the recorded electromagnetic time series therefore ranges from very good to noisy, depending on the instrument’s position and stability. Only quiet sections are used for the processing. In the subsequently derived marine transfer functions a distortion due to the so-called “coast effect” is visible at specific period and distance to the coast (apexes in apparent resistivity curves occur in the transvers-electric (TE) mode, accompanied by phases wandering through all four quadrants and abnormally high Tipper values). A detailed modeling study is performed in order to explain and quantify the coastal distortion. The modeling study reveals that the presence of a coast affects the marine transfer functions with a specific signature, which depends on several physical parameters, such as distance from the coast, period, ocean depth and bulk resistivity. Approximations are derived that define a “characteristic period” and “characteristic distance” from the coast at which the distortion is expected to be most pronounced in the transfer functions. The distortion due to the coast is shown to be helpful as it allows the estimation of the bulk resistivity of the subsurface and furthermore increases the sensitivity of the electromagnetic response to conductivity anomalies at depth. The recorded marine transfer functions were inverted together with the land transfer functions to an electrical resistivity model of the subduction zone down to a depth of approximately 120 km. Based on the model the hydration and dehydration cycle of a subduction zone may be derived. An electrically conductive zone in the incoming plate outer rise is associated with sea water penetrating down extensional faults and cracks into the upper mantle. Along the downward subducting plate, distinct conductive anomalies identify fluids from dehydration processes in the sediments, crust and mantle. A conductivity anomaly at a depth of approximately 12 km and at a distance of 65 km from the trench is associated with a first major dehydration reaction of minerally-bound water. This is of importance in the context of mid-slope fluid seeps which are thought to significantly contribute to the recycling of minerally-bound water. Another fluid accumulation is revealed by a conductivity anomaly at 20-30 km depth and a distance of approximately 30 km seaward from the volcanic arc. This lower crustal fluid accumulation could likely be caused by trapping of fluids released due to de-serpentinization processes or due to other mineral dehydration processes. A comparison with other electromagnetic studies from subduction zones around the world reveal that such a conductivity anomaly is a global feature suggesting the presence of a global fluid sink. This sink may help to explain the general observed deficit between water input and output in a subduction cycle. By relating seismic evidence as well as petrological results collected in the multi-disciplinary study of Costa Rica, budget estimations for the water cycle in the subduction zone are introduced

    Radar-based Application of Pedestrian and Cyclist Micro-Doppler Signatures for Automotive Safety Systems

    Get PDF
    Die sensorbasierte Erfassung des Nahfeldes im Kontext des hochautomatisierten Fahrens erfĂ€hrt einen spĂŒrbaren Trend bei der Integration von Radarsensorik. Fortschritte in der Mikroelektronik erlauben den Einsatz von hochauflösenden Radarsensoren, die durch effiziente Verfahren sowohl im Winkel als auch in der Entfernung und im Doppler die Messgenauigkeit kontinuierlich ansteigen lassen. Dadurch ergeben sich neuartige Möglichkeiten bei der Bestimmung der geometrischen und kinematischen Beschaffenheit ausgedehnter Ziele im Fahrzeugumfeld, die zur gezielten Entwicklung von automotiven Sicherheitssystemen herangezogen werden können. Im Rahmen dieser Arbeit werden ungeschĂŒtzte Verkehrsteilnehmer wie FußgĂ€nger und Radfahrer mittels eines hochauflösenden Automotive-Radars analysiert. Dabei steht die Erscheinung des Mikro-Doppler-Effekts, hervorgerufen durch das hohe Maß an kinematischen Freiheitsgraden der Objekte, im Vordergrund der Betrachtung. Die durch den Mikro-Doppler-Effekt entstehenden charakteristischen Radar-Signaturen erlauben eine detailliertere Perzeption der Objekte und können in direkten Zusammenhang zu ihren aktuellen BewegungszustĂ€nden gesetzt werden. Es werden neuartige Methoden vorgestellt, die die geometrischen und kinematischen Ausdehnungen der Objekte berĂŒcksichtigen und echtzeitfĂ€hige AnsĂ€tze zur Klassifikation und Verhaltensindikation realisieren. Wird ein ausgedehntes Ziel (z.B. Radfahrer) von einem Radarsensor detektiert, können aus dessen Mikro-Doppler-Signatur wesentliche Eigenschaften bezĂŒglich seines Bewegungszustandes innerhalb eines Messzyklus erfasst werden. Die Geschwindigkeitsverteilungen der sich drehenden RĂ€der erlauben eine adaptive Eingrenzung der Tretbewegung, deren Verhalten essentielle Merkmale im Hinblick auf eine vorausschauende UnfallprĂ€diktion aufweist. Ferner unterliegen ausgedehnte Radarziele einer OrientierungsabhĂ€ngigkeit, die deren geometrischen und kinematischen Profile direkt beeinflusst. Dies kann sich sowohl negativ auf die Klassifikations-Performance als auch auf die Verwertbarkeit von Parametern auswirken, die eine Absichtsbekundung des Radarziels konstituieren. Am Beispiel des Radfahrers wird hierzu ein Verfahren vorgestellt, das die orientierungsabhĂ€ngigen Parameter in Entfernung und Doppler normalisiert und die gemessenen Mehrdeutigkeiten kompensiert. Ferner wird in dieser Arbeit eine Methodik vorgestellt, die auf Grundlage des Mikro- Doppler-Profils eines FußgĂ€ngers dessen Beinbewegungen ĂŒber die Zeit schĂ€tzt (Tracking) und wertvolle Objektinformationen hinsichtlich seines Bewegungsverhaltens offenbart. Dazu wird ein Bewegungsmodell entwickelt, das die nichtlineare Fortbewegung des Beins approximiert und dessen hohes Maß an biomechanischer VariabilitĂ€t abbildet. Durch die Einbeziehung einer wahrscheinlichkeitsbasierten Datenassoziation werden die Radar-Detektionen ihren jeweils hervorrufenden Quellen (linkes und rechtes Bein) zugeordnet und eine Trennung der Gliedmaßen realisiert. Im Gegensatz zu bisherigen Tracking-Verfahren weist die vorgestellte Methodik eine Steigerung in der Genauigkeit der Objektinformationen auf und stellt damit einen entscheidenden Vorteil fĂŒr zukĂŒnftige Fahrerassistenzsysteme dar, um deutlich schneller auf kritische Verkehrssituationen reagieren zu können.:1 Introduction 1 1.1 Automotive environmental perception 2 1.2 Contributions of this work 4 1.3 Thesis overview 6 2 Automotive radar 9 2.1 Physical fundamentals 9 2.1.1 Radar cross section 9 2.1.2 Radar equation 10 2.1.3 Micro-Doppler effect 11 2.2 Radar measurement model 15 2.2.1 FMCW radar 15 2.2.2 Chirp sequence modulation 17 2.2.3 Direction-of-arrival estimation 22 2.3 Signal processing 25 2.3.1 Target properties 26 2.3.2 Target extraction 28 Power detection 28 Clustering 30 2.3.3 Real radar data example 31 2.4 Conclusion 33 3 Micro-Doppler applications of a cyclist 35 3.1 Physical fundamentals 35 3.1.1 Micro-Doppler signatures of a cyclist 35 3.1.2 Orientation dependence 36 3.2 Cyclist feature extraction 38 3.2.1 Adaptive pedaling extraction 38 Ellipticity constraints 38 Ellipse fitting algorithm 39 3.2.2 Experimental results 42 3.3 Normalization of the orientation dependence 44 3.3.1 Geometric correction 44 3.3.2 Kinematic correction 45 3.3.3 Experimental results 45 3.4 Conclusion 47 3.5 Discussion and outlook 47 4 Micro-Doppler applications of a pedestrian 49 4.1 Pedestrian detection 49 4.1.1 Human kinematics 49 4.1.2 Micro-Doppler signatures of a pedestrian 51 4.1.3 Experimental results 52 Radially moving pedestrian 52 Crossing pedestrian 54 4.2 Pedestrian feature extraction 57 4.2.1 Frequency-based limb separation 58 4.2.2 Extraction of body parts 60 4.2.3 Experimental results 62 4.3 Pedestrian tracking 64 4.3.1 Probabilistic state estimation 65 4.3.2 Gaussian filters 67 4.3.3 The Kalman filter 67 4.3.4 The extended Kalman filter 69 4.3.5 Multiple-object tracking 71 4.3.6 Data association 74 4.3.7 Joint probabilistic data association 80 4.4 Kinematic-based pedestrian tracking 84 4.4.1 Kinematic modeling 84 4.4.2 Tracking motion model 87 4.4.3 4-D radar point cloud 91 4.4.4 Tracking implementation 92 4.4.5 Experimental results 96 Longitudinal trajectory 96 Crossing trajectory with sudden turn 98 4.5 Conclusion 102 4.6 Discussion and outlook 103 5 Summary and outlook 105 5.1 Developed algorithms 105 5.1.1 Adaptive pedaling extraction 105 5.1.2 Normalization of the orientation dependence 105 5.1.3 Model-based pedestrian tracking 106 5.2 Outlook 106 Bibliography 109 List of Acronyms 119 List of Figures 124 List of Tables 125 Appendix 127 A Derivation of the rotation matrix 2.26 127 B Derivation of the mixed radar signal 2.52 129 C Calculation of the marginal association probabilities 4.51 131 Curriculum Vitae 135Sensor-based detection of the near field in the context of highly automated driving is experiencing a noticeable trend in the integration of radar sensor technology. Advances in microelectronics allow the use of high-resolution radar sensors that continuously increase measurement accuracy through efficient processes in angle as well as distance and Doppler. This opens up novel possibilities in determining the geometric and kinematic nature of extended targets in the vehicle environment, which can be used for the specific development of automotive safety systems. In this work, vulnerable road users such as pedestrians and cyclists are analyzed using a high-resolution automotive radar. The focus is on the appearance of the micro-Doppler effect, caused by the objects’ high kinematic degree of freedom. The characteristic radar signatures produced by the micro-Doppler effect allow a clearer perception of the objects and can be directly related to their current state of motion. Novel methods are presented that consider the geometric and kinematic extents of the objects and realize real-time approaches to classification and behavioral indication. When a radar sensor detects an extended target (e.g., bicyclist), its motion state’s fundamental properties can be captured from its micro-Doppler signature within a measurement cycle. The spinning wheels’ velocity distributions allow an adaptive containment of the pedaling motion, whose behavior exhibits essential characteristics concerning predictive accident prediction. Furthermore, extended radar targets are subject to orientation dependence, directly affecting their geometric and kinematic profiles. This can negatively affect both the classification performance and the usability of parameters constituting the radar target’s intention statement. For this purpose, using the cyclist as an example, a method is presented that normalizes the orientation-dependent parameters in range and Doppler and compensates for the measured ambiguities. Furthermore, this paper presents a methodology that estimates a pedestrian’s leg motion over time (tracking) based on the pedestrian’s micro-Doppler profile and reveals valuable object information regarding his motion behavior. To this end, a motion model is developed that approximates the leg’s nonlinear locomotion and represents its high degree of biomechanical variability. By incorporating likelihood-based data association, radar detections are assigned to their respective evoking sources (left and right leg), and limb separation is realized. In contrast to previous tracking methods, the presented methodology shows an increase in the object information’s accuracy. It thus represents a decisive advantage for future driver assistance systems in order to be able to react significantly faster to critical traffic situations.:1 Introduction 1 1.1 Automotive environmental perception 2 1.2 Contributions of this work 4 1.3 Thesis overview 6 2 Automotive radar 9 2.1 Physical fundamentals 9 2.1.1 Radar cross section 9 2.1.2 Radar equation 10 2.1.3 Micro-Doppler effect 11 2.2 Radar measurement model 15 2.2.1 FMCW radar 15 2.2.2 Chirp sequence modulation 17 2.2.3 Direction-of-arrival estimation 22 2.3 Signal processing 25 2.3.1 Target properties 26 2.3.2 Target extraction 28 Power detection 28 Clustering 30 2.3.3 Real radar data example 31 2.4 Conclusion 33 3 Micro-Doppler applications of a cyclist 35 3.1 Physical fundamentals 35 3.1.1 Micro-Doppler signatures of a cyclist 35 3.1.2 Orientation dependence 36 3.2 Cyclist feature extraction 38 3.2.1 Adaptive pedaling extraction 38 Ellipticity constraints 38 Ellipse fitting algorithm 39 3.2.2 Experimental results 42 3.3 Normalization of the orientation dependence 44 3.3.1 Geometric correction 44 3.3.2 Kinematic correction 45 3.3.3 Experimental results 45 3.4 Conclusion 47 3.5 Discussion and outlook 47 4 Micro-Doppler applications of a pedestrian 49 4.1 Pedestrian detection 49 4.1.1 Human kinematics 49 4.1.2 Micro-Doppler signatures of a pedestrian 51 4.1.3 Experimental results 52 Radially moving pedestrian 52 Crossing pedestrian 54 4.2 Pedestrian feature extraction 57 4.2.1 Frequency-based limb separation 58 4.2.2 Extraction of body parts 60 4.2.3 Experimental results 62 4.3 Pedestrian tracking 64 4.3.1 Probabilistic state estimation 65 4.3.2 Gaussian filters 67 4.3.3 The Kalman filter 67 4.3.4 The extended Kalman filter 69 4.3.5 Multiple-object tracking 71 4.3.6 Data association 74 4.3.7 Joint probabilistic data association 80 4.4 Kinematic-based pedestrian tracking 84 4.4.1 Kinematic modeling 84 4.4.2 Tracking motion model 87 4.4.3 4-D radar point cloud 91 4.4.4 Tracking implementation 92 4.4.5 Experimental results 96 Longitudinal trajectory 96 Crossing trajectory with sudden turn 98 4.5 Conclusion 102 4.6 Discussion and outlook 103 5 Summary and outlook 105 5.1 Developed algorithms 105 5.1.1 Adaptive pedaling extraction 105 5.1.2 Normalization of the orientation dependence 105 5.1.3 Model-based pedestrian tracking 106 5.2 Outlook 106 Bibliography 109 List of Acronyms 119 List of Figures 124 List of Tables 125 Appendix 127 A Derivation of the rotation matrix 2.26 127 B Derivation of the mixed radar signal 2.52 129 C Calculation of the marginal association probabilities 4.51 131 Curriculum Vitae 13

    Repeating the past experimental and empirical methods in system and software security

    Get PDF
    I propose a new method of analyzing intrusions: instead of analyzing evidence and deducing what must have happened, I find the intrusion-causing circumstances by a series of automatic experiments. I first capture process';s system calls, and when an intrusion has been detected, I use these system calls to replay some of the captured processes in order to find the intrusion-causing processes—the cause-effect chain that led to the intrusion. I extend this approach to find also the inputs to those processes that cause the intrusion—the attack signature. Intrusion analysis is a minimization problem—how to find a minimal set of circumstances that makes the intrusion happen. I develop several efficient minimization algorithms and show their theoretical properties, such as worst-case running times, as well as empirical evidence for a comparison of average running times. Our evaluations show that the approach is correct and practical; it finds the 3 processes out of 32 that are responsible for a proof-of-concept attack in about 5 minutes, and it finds the 72 out of 168 processes in a large, complicated, and difficult to detect multi-stage attack involving Apache and suidperl in about 2.5 hours. I also extract attack signatures in proof-of-concept attacks in reasonable time. I have also considered the problem of predicting before deployment which components in a software system are most likely to contain vulnerabilities. I present empirical evidence that vulnerabilities are connected to a component';s imports. In a case study on Mozilla, I correctly predicted one half of all vulnerable components, while more than two thirds of our predictions were correct.Ich stelle eine neue Methode der Einbruchsanalyse vor: Anstatt Spuren zu analysieren und daraus den Ereignisverlauf zu erschließen, finde ich die einbruchsverursachenden UmstĂ€nde durch automatische Experimente. ZunĂ€chst zeichne ich die Systemaufrufe von Prozessen auf. Nachdem ein Einbruch entdeckt wird, benutze ich diese Systemaufrufe, um Prozesse teilweise wieder einzuspielen, so dass ich herausfinden kann, welche Prozesse den Einbruch verursacht haben —die Ursache-Wirkungs-Kette. Ich erweitere diesen Ansatz, um auch die einbruchsverursachenden Eingaben dieser Prozesse zu finden — die Angriffs-Signatur. Einbruchsanalyse ist ein Minimierungsproblem — wie findet man eine minimale Menge von UmstĂ€nden, die den Einbruch passieren lassen? Ich entwickle einige effiziente Algorithmen und gebe sowohl theroretische Eigenschaften an, wie z.B. die Laufzeit im ungĂŒnstigsten Fall, als auch empirische Ergebnisse, die das mittlere Laufzeitverhalen beleuchten. Meine Evaluierung zeigt, dass unser Ansatz korrekt und praktikabel ist; er findet die 3 aus 32 Prozessen, die fĂŒr einen konstruierten Angriff verantwortlich sind, in etwa 5 Minuten, und er findet die 72 von 168 Prozessen, die fĂŒr einen echten, komplizierten, mehrstufigen und schwer zu analysierenden Angriff auf Apache und suidperl verantwortlich sind, in 2,5 Stunden. Ich kann ebenfalls Angriffs-Signaturen eines konstruierten Angriffs in vernĂŒnftiger Zeit erstellen. Ich habe mich auch mit dem Problem beschĂ€ftigt, vor der Auslieferung von Software diejenigen Komponenten vorherzusagen, die besonders anfĂ€llig fĂŒr Schwachstellen sind. Ich bringe empirische Anhaltspunkte, dass Schwachstellen mit Importen korrelieren. In einer Fallstudie ĂŒber Mozilla konnte ich die HĂ€lfte aller fehlerhaften Komponenten korrekt vorhersagen, wobei etwa zwei Drittel aller Vorhersagen richtig war

    Anisotropic galaxy clustering measurements in Fourier space and cosmological implications from the BOSS DR12 sample

    Get PDF
    Moderne Rotverschiebungs-Galaxiendurchmusterungen können mittels Mehrfach-Faser-Spektroskopie große Bereiche des Himmels abdecken. Dank der immer grĂ¶ĂŸer werdenden DatensĂ€tze hat sich die Analyse der großskaligen Galaxienverteilung im Universum zu einer unschĂ€tzbaren Wissensquelle fĂŒr die Kosmologie entwickelt. Zusammen mit den Beobachtungen des kosmischen Mikrowellenhintergrunds (MWH) und Entfernungsbestimmungen anhand von großen Typ-Ia-Supernova-DatensĂ€tzen (SN) bilden die Galaxiendurchmusterungen ausschlaggebende Indikatoren fĂŒr die Korrektheit der Paradigmen des kosmologischen Weltbilds, des ΛCDM-Modells. Die Auswertung der Galaxienverteilung erlaubt mit Hilfe des Standardlineals, das durch die Baryonisch-akustischen Oszillationen gegeben ist, Entfernungsmessungen von ungesehener PrĂ€zision. Dies gewĂ€hrt Einblick in die zugrundeliegende physikalische Natur der Dunklen Energie (DE), welche fĂŒr die Beschleunigung der Ausdehung unseres Universums verantwortlich gemacht wird, indem die zeitliche Entwicklung der DE-Zustandsgleichung einge- schrĂ€nkt werden kann. Zudem kann aus dem Signal der Verzerrungen im Rotverschiebungsraum die Wachstumsrate von kosmologischer Struktur bestimmt werden. Dies stellt einen Test der RelativitĂ€tstheorie dar, weil mögliche erweiterte Gravitationstheorien abweichende Wachstumsraten vorhersagen können. Die abgeschlossenen Rotverschiebungsmessungen des ‘Baryon Acoustic Oscillation Survey’-Programms (kurz BOSS) brachten einen Galaxienkatalog hervor, der ein bisher unerreichtes Volumen abdeckt. In dieser Dissertation wird die kosmologische Information, die im rĂ€umlichen Leistungsdichtespektrum (LDS) der Rotverschiebungsraum-Galaxienverteilung des BOSS-Katalogs enthalten ist, genutzt, um den Parameterraum des ΛCDM-Modells und der wichtigsten möglichen Erweiterungen einzuschrĂ€nken. Vorherige Analysen des anisotropen Galaxien-LDS waren auf die Messung der Multipolzerlegung beschrĂ€nkt. FĂŒr die hier prĂ€sentierte Analyse wurde das Konzept der sogenannten ‘Clustering Wedges’ auf den Fourierraum ĂŒbertragen, um einen komplementĂ€ren Ansatz zur Vermessung des anisotropen LDS zu verfolgen. Dazu wird der varianzoptimierte SchĂ€tzer fĂŒr LDS-Wedges definiert und an die Galaxiengewichtung, die unvermeidbare Beobachtungsfehler im BOSS-Katalog behebt, angepasst. Zudem wird auch der Formalismus zur Beschreibung der Fensterfunktion auf die Wedges erweitert. Das verwendete Modell fĂŒr das anistrope Galaxien-LDS ist auf neuartigen AnsĂ€tzen zur Modellierung der nichtlinearen Gravitationsdynamik und der Verzerrungen im Rotverschiebungsraum aufgebaut, welche die Genauigkeit der Modellvorhersagen speziell im Übergang in den nichtlinearen Bereich signifikant verbessern. Daher kann das LDS bis zu kleineren Skalen als in vorherigen Analysen ausgewertet werden, wodurch engere EinschrĂ€nkungen des kosmologischen Parameterraums erreicht werden. Die Modellierung wurde mit Hilfe von synthetischen Katalogen, die auf großvolumigen Mehrkörpersimulationen basieren, verifiziert. Dazu ist eine theoretische Vorhersage der Kovarianzmatrix der anisotropischen Vermessung der Galaxienverteilung nötig, wofĂŒr ein Gaußsches Vorhersagemodell entwickelt wurde. Dieses ist neben den Wedges auch fĂŒr die komplementĂ€re Multipolzerlegung sowohl des LDS als auch dessen Fouriertransformierten, der Zwei-Punkt-Korrelationsfunktion, anwendbar. Die LDS-Analyse anhand von Clustering Wedges, wie in dieser Arbeit prĂ€sentiert, ist Teil der kombinierten Analyse des finalen Galaxienkatalogs im Rahmen der BOSS-Kollaboration. Unter Verwendung von zwei sich nicht ĂŒberschneidenden Rotverschiebungsbereichen wird die Winkeldurchmesserentfernung zu D_M(z_eff = 0.38) (rfid_d / r_d) = 1525 +-24 h^-1 Mpc und D_M(z_eff = 0.61) (rfid_d / r_d) = 2281 +42 -43 h^-1 Mpc bestimmt. Weiterhin wird der Hubbleparameter zu H(z_eff = 0.38) (r_d / rfid_d) = 81.2 +2.2 −2.3 km s^-1 Mpc^-1 und H(z_eff = 0.61) (r_d / rfid_d) = 94.9 +-2.5 km s^-1 Mpc^-1 vermessen (alle hier angegebenen Bereiche entsprechen einem Konfidenzintervall von 68%). Die Wachstumsrate wird eingeschrĂ€nkt auf fσ_8 (z_eff = 0.38) = 0.498 +0.044 -0.045 und fσ_8 (z_eff = 0.61) = 0.409 +-0.040. Zusammen mit den Ergebnissen der komplementĂ€ren Methoden, die innerhalb der BOSS-Kollaboration zur Clustering-Analyse des finalen Galaxienkatalogs eingesetzt werden, werden diese Resultate zu einem abschließenden Konsensergebnis zusammengefasst. Nur mit den Clustering-Weges-Messungen im Fourierraum, kombiniert mit MWH- und SN-Daten, kann der Materiedichteparameter auf Ω_M = 0.311 +0.009 -0.010 und die Hubble-Konstante auf H_0 = 67.6 +0.7 -0.6 km s^-1 Mpc^−1 unter Annahme des ΛCDM-Modells eingeschrĂ€nken werden. Wird ein Nichtstandard-Modell fĂŒr DE angenommen, so ergibt sich ein DE-Zustandsgleichungsparameter von w_DE = 1.019 +0.048 -0.039. Modifikationen der Wachstumsrate, parametrisiert durch f(z) = [Ω_M(z)]^Îł, werden auf Îł = 0.52 +- 0.10 eingeschrĂ€nkt. Diese beiden Messungen sind in perfekter Übereinstimmung mit den Vorhersagen des ΛCDM-Modells, ebenso wie weitere Ergebnisse, die sich unter der Annahme eines noch großzĂŒgigeren DE-Modells (welches eine zeitliche Entwicklung von w_DE erlaubt) ergeben. Daher wird das ΛCDM-Modell durch die hier beschriebene Analyse weiter gefestigt. Die Summe der Neutrinomassen wird zu sum(m_Îœ) < 0.143 eV bestimmt. Dieses obere Limit befindet sich nicht weit entfernt von der unteren Schranke, die sich aus Teilchenphysik-Experimenten ergibt. Somit ist zu erwarten, dass die kosmologische Signatur, die massebehaftete Neutrinos in der großskaligen Struktur des Universums hinterlassen, in naher Zukunft detektiert werden kann.Galaxy surveys cover a large fraction of the celestial sphere using modern multi-fibre spectrographs. Thanks to ever increasing datasets, the analysis of the large-scale structure (LSS) of the Universe has become a prolific source of cosmological information. Together with the observations of the cosmic microwave background (CMB) and samples of supernova (SN) of type Ia, they helped to establish the standard cosmological paradigm, the ΛCDM model. From the analysis of redshift-space galaxy clustering, the expansion history of the Universe can be inferred using the feature of Baryon Acoustic Oscillations (BAO) as a standard ruler to measure cosmic distances. The growth rate of cosmic structure can also be determined using redshift-space distortions (RSD). These measurements provide insight into competing alternatives of the ΛCDM model. The nature of the Dark Energy (DE), a strange component that is believed to be responsible for the current phase of accelerating expansion of the Universe, can be unravelled from BAO measurements of the late-time expansion. Modified theories of gravity can be constrained from the growth rate extracted from RSD, which can deviate from the prediction of general relativity. The redshift measurements of the Baryon Acoustic Oscillation Survey (BOSS) program that was completed in 2014 yielded a galaxy sample that covers an unprecedented volume. In this thesis, the standard model and its most important extensions are analysed using the cosmological information in the full-shape of the redshift-space two-point statistics measured from the final BOSS galaxy sample. So far, anisotropic clustering analyses in Fourier space relied on power spectrum multipole measurements. For this work, the concept of clustering wedges was extended to Fourier space to establish a complementary approach to measure clustering anisotropies: we introduce the optimal-variance estimator for clustering wedges, which is designed to account for systematic weights that correct the observational incompleteness of the BOSS sample, and also develop the window function formalism for the wedges. Our modelling of the anisotropic galaxy clustering is based on novel approaches for the description of non-linear gravitational dynamics and redshift-space distortions. This improved modelling allows us to include smaller scales in our full-shape fits than in previous BAO+RSD studies, resulting in tighter cosmological constraints. The galaxy clustering model is verified using synthetic catalogues based on large-volume N -body simulations. As this test requires a theoretical description for the anisotropic clustering covariance matrix, a Gaussian formalism was developed for that purpose. As a side project, this formalism is extended to describe clustering wedges and multipoles in Fourier and configuration space. The Fourier-space clustering measurements presented in this thesis are part of the joint analysis of the final BOSS sample. Using two non-overlapping redshift bins, we measure an angular diameter distance of D_M(z_eff = 0.38) (rfid_d / r_d) = 1525 +-24 h^-1 Mpc and D_M(z_eff = 0.61) (rfid_d / r_d) = 2281 +42 -43 h^-1 Mpc, as well as a Hubble parameter of H(z_eff = 0.38) (r_d / rfid_d) = 81.2 +2.2 −2.3 km s^-1 Mpc^-1 and H(z_eff = 0.61) (r_d / rfid_d) = 94.9 +-2.5 km s^-1 Mpc^-1 (all limits correspond to the statistical error of a confidence level of 68%). The growth rate is constrained to fσ_8 (z_eff = 0.38) = 0.498 +0.044 -0.045 und fσ_8 (z_eff = 0.61) = 0.409 +-0.040. These measurements will be combined with the complementary results from other galaxy clustering methods in configuration and Fourier space in order to determine the final BOSS consensus measurements. From our analysis alone, in combination with CMB and SN Ia data, we obtain a matter density parameter of Ω_M = 0.311 +0.009 -0.010 and a local Hubble parameter of H_0 = 67.6 +0.7 -0.6 km s^-1 Mpc^−1 assuming a ΛCDM cosmology. Allowing for a non-standard DE model, we find an equation-of-state parameter of w_DE = 1.019 +0.048 -0.039. Modifications of the growth rate, parametrized as f(z) = [Ω_M(z)]^Îł, are constrained to Îł = 0.52 ± 0.10. These two results, along with those obtained using a more general DE model to identify a time-evolution of w_DE, are in perfect agreement with the ΛCDM predictions. Thus, the standard paradigm is further consolidated by our analysis. The sum of neutrino masses is found to be sum(m_Îœ) < 0.143 eV. As this limit is close to the lower bound from particle physics, a detection of the cosmological signature of massive neutrinos from LSS analyses can be expected in the near future.Deutsche Übersetzung des Titels: Anisotrope Messungen der Galaxien-HĂ€ufungsverteilung im Fourierraum und kosmologische Implikationen des BOSS-DR12-Galaxiensample
    corecore