14 research outputs found
Tagungsband zum 21. Kolloquium Programmiersprachen und Grundlagen der Programmierung
Das 21. Kolloquium Programmiersprachen und Grundlagen der Programmierung (KPS 2021) setzt eine traditionelle Reihe von Arbeitstagungen fort, die 1980 von den Forschungsgruppen der Professoren Friedrich L. Bauer (TU MĂŒnchen), Klaus Indermark (RWTH Aachen) und Hans Langmaack(CAU Kiel) ins Leben gerufen wurde.Die Veranstaltung ist ein offenes Forum fĂŒr alle interessierten deutschsprachigen Wissenschaftlerinnen und Wissenschaftler zum zwanglosen Austausch neuer Ideen und Ergebnisse aus den Forschungsbereichen Entwurf und Implementierung von Programmiersprachen sowie Grundlagen und Methodik des Programmierens. Dieser Tagungsband enthĂ€lt die wissenschaftlichen BeitrĂ€ge,die bei dem 21. Kolloquium dieser Tagungsreihe prĂ€sentiert wurden, welches vom 27. bis 29. September 2021 in Kiel stattfand und von der Arbeitsgruppe Programmiersprachen und Ăbersetzerkonstruktion der Christian-Albrechts-UniversitĂ€t zu Kiel organisiert wurde
Programmiersprachen und Rechenkonzepte
Seit 1984 veranstaltet die GI-Fachgruppe "Programmiersprachen und Rechenkonzepte" regelmĂ€Ăig im FrĂŒhjahr einen Workshop im Physikzentrum Bad Honnef. Das Treffen dient in erster Linie dem gegenseitigen Kennenlernen, dem Erfahrungsaustausch, der Diskussion und der Vertiefung gegenseitiger Kontakte. In diesem Forum werden VortrĂ€ge und Demonstrationen sowohl bereits abgeschlossener als auch noch laufender Arbeiten vorgestellt, unter anderem (aber nicht ausschlieĂlich) zu Themen wie - Sprachen, Sprachparadigmen - Korrektheit von Entwurf und Implementierung - Werkzeuge - Software-/Hardware-Architekturen - Spezifikation, Entwurf - Validierung, Verifikation - Implementierung, Integration - Sicherheit (Safety und Security) - eingebettete Systeme - hardware-nahe Programmierung. In diesem Technischen Bericht sind einige der prĂ€sentierten Arbeiten zusammen gestellt
Vision-based neural network classifiers and their applications
A thesis submitted for the degree of Doctor of Philosophy of University of LutonVisual inspection of defects is an important part of quality assurance in many fields of production. It plays a very useful role in industrial applications in order to relieve human inspectors and improve the inspection accuracy and hence increasing productivity. Research has previously been done in defect classification of wood veneers using techniques such as neural networks, and a certain degree of success has been achieved. However, to improve results in tenus of both classification accuracy and running time are necessary if the techniques are to be widely adopted in industry, which has motivated this research.
This research presents a method using rough sets based neural network with fuzzy input (RNNFI). Variable precision rough set (VPRS) method is proposed to remove redundant features utilising the characteristics of VPRS for data analysis and processing. The reduced data is fuzzified to represent the feature data in a more suitable foml for input to an improved BP neural network classifier. The improved BP neural network classifier is improved in three aspects: additional momentum, self-adaptive learning rates and dynamic error segmenting. Finally, to further consummate the classifier, a uniform design CUD) approach is introduced to optimise the key parameters because UD can generate a minimal set of uniform and representative design points scattered within the experiment domain. Optimal factor settings are achieved using a response surface (RSM) model and the nonlinear quadratic programming algorithm (NLPQL).
Experiments have shown that the hybrid method is capable of classifying the defects of wood veneers with a fast convergence speed and high classification accuracy, comparing with other methods such as a neural network with fuzzy input and a rough sets based neural network. The research has demonstrated a methodology for visual inspection of defects, especially for situations where there is a large amount of data and a fast running speed is required. It is expected that this method can be applied to automatic visual inspection for production lines of other products such as ceramic tiles and strip steel
Marine magnetotellurics on a continental margin: imaging the hydration and dehydration cycle of the Costa Rican subduction zone
At continental margins, the water content and its distribution play an important role in the subduction process. Water is released from the subducting slab in a series of metamorphic reactions and may trigger the onset of melting, cause crustal weakening and changes in the dynamics and thermal structure of subduction zones. However, the amount of water carried into the subduction zone and its distribution are not well constrained by existing data. They are subject of vigorous current research in the special research initiative (SFB 574) at University of Kiel and IFM-GEOMAR âVolatiles and Fluids in Subduction Zones: Climate Feedback and Trigger Mechanisms
for Natural Disastersâ.
Electromagnetic methods like magnetotellurics have been widely used to recognize fluid release and melt production through enhanced electrical conductivities. In the framework of SFB 574, an offshore magnetotelluric experiment was performed in 2007-2008 along a profile crossing the trench, where the Cocos plate is thrust beneath the Caribbean plate. The marine profile was extended onshore by the Free University of Berlin, yielding a large-scale amphibious data set across the subduction zone with a profile length of 370 km. The main goal of the experiment is to image the fluid content and its distribution along the subducting plate and deeper Earth structure.
The recorded electromagnetic time series have been processed to electromagnetic sounding curves (apparent resistivity & phase, and Tipper) at each station. As most of the stations lay on a cliffy continental shelf, they were highly susceptible to water enforced movement (tidal currents hitting the shelf). The data quality of the recorded electromagnetic time series therefore ranges from very good to noisy, depending on the instrumentâs position and stability. Only quiet sections are used for the processing. In the subsequently derived marine transfer functions a distortion due to the so-called âcoast effectâ is visible at specific period and distance to the coast (apexes in apparent resistivity curves occur in the transvers-electric (TE) mode, accompanied by phases wandering through all four quadrants and abnormally high Tipper values).
A detailed modeling study is performed in order to explain and quantify the coastal distortion. The modeling study reveals that the presence of a coast affects the marine transfer functions with a specific signature, which depends on several physical parameters, such as distance from the coast, period, ocean depth and bulk resistivity.
Approximations are derived that define a âcharacteristic periodâ and âcharacteristic distanceâ from the coast at which the distortion is expected to be most pronounced in the transfer functions. The distortion due to the coast is shown to be helpful as it allows the estimation of the bulk resistivity of the subsurface and furthermore increases the sensitivity of the electromagnetic response to conductivity anomalies at depth.
The recorded marine transfer functions were inverted together with the land transfer functions to an electrical resistivity model of the subduction zone down to a depth of approximately 120 km. Based on the model the hydration and dehydration cycle of a subduction zone may be derived. An electrically conductive zone in the incoming plate outer rise is associated with sea water penetrating down extensional faults and cracks into the upper mantle. Along the downward subducting plate, distinct conductive anomalies identify fluids from dehydration processes in the sediments, crust and mantle.
A conductivity anomaly at a depth of approximately 12 km and at a distance of 65 km from the trench is associated with a first major dehydration reaction of minerally-bound water. This is of importance in the context of mid-slope fluid seeps which are thought to significantly contribute to the recycling of minerally-bound water. Another fluid accumulation is revealed by a conductivity anomaly at 20-30 km depth and a distance of approximately 30 km seaward from the volcanic arc. This lower crustal fluid accumulation could likely be caused by trapping of fluids released due to de-serpentinization processes or due to other mineral dehydration processes. A comparison with other electromagnetic studies from subduction zones around the world reveal that such a conductivity anomaly is a global feature suggesting the presence of a global fluid sink. This sink may help to explain the general observed deficit between water input and output in a subduction cycle. By relating seismic evidence as well as petrological results collected in the multi-disciplinary study of Costa Rica, budget estimations for the water cycle in the subduction zone are introduced
Radar-based Application of Pedestrian and Cyclist Micro-Doppler Signatures for Automotive Safety Systems
Die sensorbasierte Erfassung des Nahfeldes im Kontext des hochautomatisierten Fahrens erfĂ€hrt einen spĂŒrbaren Trend bei der Integration von Radarsensorik. Fortschritte in der Mikroelektronik erlauben den Einsatz von hochauflösenden Radarsensoren, die durch effiziente Verfahren sowohl im Winkel als auch in der Entfernung und im Doppler die Messgenauigkeit kontinuierlich ansteigen lassen. Dadurch ergeben sich neuartige Möglichkeiten bei der Bestimmung der geometrischen und kinematischen Beschaffenheit ausgedehnter Ziele im Fahrzeugumfeld, die zur gezielten Entwicklung von automotiven Sicherheitssystemen herangezogen werden können.
Im Rahmen dieser Arbeit werden ungeschĂŒtzte Verkehrsteilnehmer wie FuĂgĂ€nger und Radfahrer mittels eines hochauflösenden Automotive-Radars analysiert. Dabei steht die Erscheinung des Mikro-Doppler-Effekts, hervorgerufen durch das hohe MaĂ an kinematischen Freiheitsgraden der Objekte, im Vordergrund der Betrachtung. Die durch den Mikro-Doppler-Effekt entstehenden charakteristischen Radar-Signaturen erlauben eine detailliertere Perzeption der Objekte und können in direkten Zusammenhang zu ihren aktuellen BewegungszustĂ€nden gesetzt werden. Es werden neuartige Methoden vorgestellt, die die geometrischen und kinematischen Ausdehnungen der Objekte berĂŒcksichtigen und echtzeitfĂ€hige AnsĂ€tze zur Klassifikation und Verhaltensindikation realisieren.
Wird ein ausgedehntes Ziel (z.B. Radfahrer) von einem Radarsensor detektiert, können aus dessen Mikro-Doppler-Signatur wesentliche Eigenschaften bezĂŒglich seines Bewegungszustandes innerhalb eines Messzyklus erfasst werden. Die Geschwindigkeitsverteilungen der sich drehenden RĂ€der erlauben eine adaptive Eingrenzung der Tretbewegung, deren Verhalten essentielle Merkmale im Hinblick auf eine vorausschauende UnfallprĂ€diktion aufweist. Ferner unterliegen ausgedehnte Radarziele einer OrientierungsabhĂ€ngigkeit, die deren geometrischen und kinematischen Profile direkt beeinflusst. Dies kann sich sowohl negativ auf die Klassifikations-Performance als auch auf die Verwertbarkeit von Parametern
auswirken, die eine Absichtsbekundung des Radarziels konstituieren. Am Beispiel des Radfahrers wird hierzu ein Verfahren vorgestellt, das die orientierungsabhÀngigen Parameter in Entfernung und Doppler normalisiert und die gemessenen Mehrdeutigkeiten kompensiert.
Ferner wird in dieser Arbeit eine Methodik vorgestellt, die auf Grundlage des Mikro-
Doppler-Profils eines FuĂgĂ€ngers dessen Beinbewegungen ĂŒber die Zeit schĂ€tzt (Tracking) und wertvolle Objektinformationen hinsichtlich seines Bewegungsverhaltens offenbart. Dazu wird ein Bewegungsmodell entwickelt, das die nichtlineare Fortbewegung des Beins approximiert und dessen hohes MaĂ an biomechanischer VariabilitĂ€t abbildet. Durch die Einbeziehung einer wahrscheinlichkeitsbasierten Datenassoziation werden die Radar-Detektionen ihren jeweils hervorrufenden Quellen (linkes und rechtes Bein) zugeordnet und
eine Trennung der GliedmaĂen realisiert. Im Gegensatz zu bisherigen Tracking-Verfahren weist die vorgestellte Methodik eine Steigerung in der Genauigkeit der Objektinformationen auf und stellt damit einen entscheidenden Vorteil fĂŒr zukĂŒnftige Fahrerassistenzsysteme dar, um deutlich schneller auf kritische Verkehrssituationen reagieren zu können.:1 Introduction 1
1.1 Automotive environmental perception 2
1.2 Contributions of this work 4
1.3 Thesis overview 6
2 Automotive radar 9
2.1 Physical fundamentals 9
2.1.1 Radar cross section 9
2.1.2 Radar equation 10
2.1.3 Micro-Doppler effect 11
2.2 Radar measurement model 15
2.2.1 FMCW radar 15
2.2.2 Chirp sequence modulation 17
2.2.3 Direction-of-arrival estimation 22
2.3 Signal processing 25
2.3.1 Target properties 26
2.3.2 Target extraction 28
Power detection 28
Clustering 30
2.3.3 Real radar data example 31
2.4 Conclusion 33
3 Micro-Doppler applications of a cyclist 35
3.1 Physical fundamentals 35
3.1.1 Micro-Doppler signatures of a cyclist 35
3.1.2 Orientation dependence 36
3.2 Cyclist feature extraction 38
3.2.1 Adaptive pedaling extraction 38
Ellipticity constraints 38
Ellipse fitting algorithm 39
3.2.2 Experimental results 42
3.3 Normalization of the orientation dependence 44
3.3.1 Geometric correction 44
3.3.2 Kinematic correction 45
3.3.3 Experimental results 45
3.4 Conclusion 47
3.5 Discussion and outlook 47
4 Micro-Doppler applications of a pedestrian 49
4.1 Pedestrian detection 49
4.1.1 Human kinematics 49
4.1.2 Micro-Doppler signatures of a pedestrian 51
4.1.3 Experimental results 52
Radially moving pedestrian 52
Crossing pedestrian 54
4.2 Pedestrian feature extraction 57
4.2.1 Frequency-based limb separation 58
4.2.2 Extraction of body parts 60
4.2.3 Experimental results 62
4.3 Pedestrian tracking 64
4.3.1 Probabilistic state estimation 65
4.3.2 Gaussian filters 67
4.3.3 The Kalman filter 67
4.3.4 The extended Kalman filter 69
4.3.5 Multiple-object tracking 71
4.3.6 Data association 74
4.3.7 Joint probabilistic data association 80
4.4 Kinematic-based pedestrian tracking 84
4.4.1 Kinematic modeling 84
4.4.2 Tracking motion model 87
4.4.3 4-D radar point cloud 91
4.4.4 Tracking implementation 92
4.4.5 Experimental results 96
Longitudinal trajectory 96
Crossing trajectory with sudden turn 98
4.5 Conclusion 102
4.6 Discussion and outlook 103
5 Summary and outlook 105
5.1 Developed algorithms 105
5.1.1 Adaptive pedaling extraction 105
5.1.2 Normalization of the orientation dependence 105
5.1.3 Model-based pedestrian tracking 106
5.2 Outlook 106
Bibliography 109
List of Acronyms 119
List of Figures 124
List of Tables 125
Appendix 127
A Derivation of the rotation matrix 2.26 127
B Derivation of the mixed radar signal 2.52 129
C Calculation of the marginal association probabilities 4.51 131
Curriculum Vitae 135Sensor-based detection of the near field in the context of highly automated driving is experiencing a noticeable trend in the integration of radar sensor technology. Advances in
microelectronics allow the use of high-resolution radar sensors that continuously increase measurement accuracy through efficient processes in angle as well as distance and Doppler.
This opens up novel possibilities in determining the geometric and kinematic nature of extended targets in the vehicle environment, which can be used for the specific development
of automotive safety systems.
In this work, vulnerable road users such as pedestrians and cyclists are analyzed using a high-resolution automotive radar. The focus is on the appearance of the micro-Doppler
effect, caused by the objectsâ high kinematic degree of freedom. The characteristic radar signatures produced by the micro-Doppler effect allow a clearer perception of the objects
and can be directly related to their current state of motion. Novel methods are presented that consider the geometric and kinematic extents of the objects and realize real-time
approaches to classification and behavioral indication.
When a radar sensor detects an extended target (e.g., bicyclist), its motion stateâs fundamental properties can be captured from its micro-Doppler signature within a measurement
cycle. The spinning wheelsâ velocity distributions allow an adaptive containment of the pedaling motion, whose behavior exhibits essential characteristics concerning predictive
accident prediction. Furthermore, extended radar targets are subject to orientation dependence, directly affecting their geometric and kinematic profiles. This can negatively affect
both the classification performance and the usability of parameters constituting the radar targetâs intention statement. For this purpose, using the cyclist as an example, a method
is presented that normalizes the orientation-dependent parameters in range and Doppler and compensates for the measured ambiguities.
Furthermore, this paper presents a methodology that estimates a pedestrianâs leg motion over time (tracking) based on the pedestrianâs micro-Doppler profile and reveals valuable
object information regarding his motion behavior. To this end, a motion model is developed that approximates the legâs nonlinear locomotion and represents its high degree of biomechanical variability. By incorporating likelihood-based data association, radar detections are assigned to their respective evoking sources (left and right leg), and limb separation is
realized. In contrast to previous tracking methods, the presented methodology shows an increase in the object informationâs accuracy. It thus represents a decisive advantage for
future driver assistance systems in order to be able to react significantly faster to critical traffic situations.:1 Introduction 1
1.1 Automotive environmental perception 2
1.2 Contributions of this work 4
1.3 Thesis overview 6
2 Automotive radar 9
2.1 Physical fundamentals 9
2.1.1 Radar cross section 9
2.1.2 Radar equation 10
2.1.3 Micro-Doppler effect 11
2.2 Radar measurement model 15
2.2.1 FMCW radar 15
2.2.2 Chirp sequence modulation 17
2.2.3 Direction-of-arrival estimation 22
2.3 Signal processing 25
2.3.1 Target properties 26
2.3.2 Target extraction 28
Power detection 28
Clustering 30
2.3.3 Real radar data example 31
2.4 Conclusion 33
3 Micro-Doppler applications of a cyclist 35
3.1 Physical fundamentals 35
3.1.1 Micro-Doppler signatures of a cyclist 35
3.1.2 Orientation dependence 36
3.2 Cyclist feature extraction 38
3.2.1 Adaptive pedaling extraction 38
Ellipticity constraints 38
Ellipse fitting algorithm 39
3.2.2 Experimental results 42
3.3 Normalization of the orientation dependence 44
3.3.1 Geometric correction 44
3.3.2 Kinematic correction 45
3.3.3 Experimental results 45
3.4 Conclusion 47
3.5 Discussion and outlook 47
4 Micro-Doppler applications of a pedestrian 49
4.1 Pedestrian detection 49
4.1.1 Human kinematics 49
4.1.2 Micro-Doppler signatures of a pedestrian 51
4.1.3 Experimental results 52
Radially moving pedestrian 52
Crossing pedestrian 54
4.2 Pedestrian feature extraction 57
4.2.1 Frequency-based limb separation 58
4.2.2 Extraction of body parts 60
4.2.3 Experimental results 62
4.3 Pedestrian tracking 64
4.3.1 Probabilistic state estimation 65
4.3.2 Gaussian filters 67
4.3.3 The Kalman filter 67
4.3.4 The extended Kalman filter 69
4.3.5 Multiple-object tracking 71
4.3.6 Data association 74
4.3.7 Joint probabilistic data association 80
4.4 Kinematic-based pedestrian tracking 84
4.4.1 Kinematic modeling 84
4.4.2 Tracking motion model 87
4.4.3 4-D radar point cloud 91
4.4.4 Tracking implementation 92
4.4.5 Experimental results 96
Longitudinal trajectory 96
Crossing trajectory with sudden turn 98
4.5 Conclusion 102
4.6 Discussion and outlook 103
5 Summary and outlook 105
5.1 Developed algorithms 105
5.1.1 Adaptive pedaling extraction 105
5.1.2 Normalization of the orientation dependence 105
5.1.3 Model-based pedestrian tracking 106
5.2 Outlook 106
Bibliography 109
List of Acronyms 119
List of Figures 124
List of Tables 125
Appendix 127
A Derivation of the rotation matrix 2.26 127
B Derivation of the mixed radar signal 2.52 129
C Calculation of the marginal association probabilities 4.51 131
Curriculum Vitae 13
Repeating the past experimental and empirical methods in system and software security
I propose a new method of analyzing intrusions: instead of analyzing evidence and deducing what must have happened, I find the intrusion-causing circumstances by a series of automatic experiments. I first capture process';s system calls, and when an intrusion has been detected, I use these system calls to replay some of the captured processes in order to find the intrusion-causing processesâthe cause-effect chain that led to the intrusion. I extend this approach to find also the inputs to those processes that cause the intrusionâthe attack signature. Intrusion analysis is a minimization problemâhow to find a minimal set of circumstances that makes the intrusion happen. I develop several efficient minimization algorithms and show their theoretical properties, such as worst-case running times, as well as empirical evidence for a comparison of average running times. Our evaluations show that the approach is correct and practical; it finds the 3 processes out of 32 that are responsible for a proof-of-concept attack in about 5 minutes, and it finds the 72 out of 168 processes in a large, complicated, and difficult to detect multi-stage attack involving Apache and suidperl in about 2.5 hours. I also extract attack signatures in proof-of-concept attacks in reasonable time. I have also considered the problem of predicting before deployment which components in a software system are most likely to contain vulnerabilities. I present empirical evidence that vulnerabilities are connected to a component';s imports. In a case study on Mozilla, I correctly predicted one half of all vulnerable components, while more than two thirds of our predictions were correct.Ich stelle eine neue Methode der Einbruchsanalyse vor: Anstatt Spuren zu analysieren und daraus den Ereignisverlauf zu erschlieĂen, finde ich die einbruchsverursachenden UmstĂ€nde durch automatische Experimente. ZunĂ€chst zeichne ich die Systemaufrufe von Prozessen auf. Nachdem ein Einbruch entdeckt wird, benutze ich diese Systemaufrufe, um Prozesse teilweise wieder einzuspielen, so dass ich herausfinden kann, welche Prozesse den Einbruch verursacht haben âdie Ursache-Wirkungs-Kette. Ich erweitere diesen Ansatz, um auch die einbruchsverursachenden Eingaben dieser Prozesse zu finden â die Angriffs-Signatur. Einbruchsanalyse ist ein Minimierungsproblem â wie findet man eine minimale Menge von UmstĂ€nden, die den Einbruch passieren lassen? Ich entwickle einige effiziente Algorithmen und gebe sowohl theroretische Eigenschaften an, wie z.B. die Laufzeit im ungĂŒnstigsten Fall, als auch empirische Ergebnisse, die das mittlere Laufzeitverhalen beleuchten. Meine Evaluierung zeigt, dass unser Ansatz korrekt und praktikabel ist; er findet die 3 aus 32 Prozessen, die fĂŒr einen konstruierten Angriff verantwortlich sind, in etwa 5 Minuten, und er findet die 72 von 168 Prozessen, die fĂŒr einen echten, komplizierten, mehrstufigen und schwer zu analysierenden Angriff auf Apache und suidperl verantwortlich sind, in 2,5 Stunden. Ich kann ebenfalls Angriffs-Signaturen eines konstruierten Angriffs in vernĂŒnftiger Zeit erstellen. Ich habe mich auch mit dem Problem beschĂ€ftigt, vor der Auslieferung von Software diejenigen Komponenten vorherzusagen, die besonders anfĂ€llig fĂŒr Schwachstellen sind. Ich bringe empirische Anhaltspunkte, dass Schwachstellen mit Importen korrelieren. In einer Fallstudie ĂŒber Mozilla konnte ich die HĂ€lfte aller fehlerhaften Komponenten korrekt vorhersagen, wobei etwa zwei Drittel aller Vorhersagen richtig war
Anisotropic galaxy clustering measurements in Fourier space and cosmological implications from the BOSS DR12 sample
Moderne Rotverschiebungs-Galaxiendurchmusterungen können mittels Mehrfach-Faser-Spektroskopie groĂe Bereiche des Himmels abdecken. Dank der immer gröĂer werdenden DatensĂ€tze hat sich die Analyse der groĂskaligen Galaxienverteilung im Universum zu einer unschĂ€tzbaren Wissensquelle fĂŒr die Kosmologie entwickelt. Zusammen mit den Beobachtungen des kosmischen Mikrowellenhintergrunds (MWH) und Entfernungsbestimmungen anhand von groĂen Typ-Ia-Supernova-DatensĂ€tzen (SN) bilden die Galaxiendurchmusterungen ausschlaggebende Indikatoren fĂŒr die Korrektheit der Paradigmen des kosmologischen Weltbilds, des ÎCDM-Modells. Die Auswertung der Galaxienverteilung erlaubt mit Hilfe des Standardlineals, das durch die Baryonisch-akustischen Oszillationen gegeben ist, Entfernungsmessungen von ungesehener PrĂ€zision. Dies gewĂ€hrt Einblick in die zugrundeliegende physikalische Natur der Dunklen Energie (DE), welche fĂŒr die Beschleunigung der Ausdehung unseres Universums verantwortlich gemacht wird, indem die zeitliche Entwicklung der DE-Zustandsgleichung einge-
schrÀnkt werden kann. Zudem kann aus dem Signal der Verzerrungen im Rotverschiebungsraum die Wachstumsrate von kosmologischer Struktur bestimmt werden. Dies stellt einen Test der RelativitÀtstheorie dar, weil mögliche erweiterte Gravitationstheorien abweichende Wachstumsraten vorhersagen können.
Die abgeschlossenen Rotverschiebungsmessungen des âBaryon Acoustic Oscillation Surveyâ-Programms (kurz BOSS) brachten einen Galaxienkatalog hervor, der ein bisher unerreichtes Volumen abdeckt. In dieser Dissertation wird die kosmologische Information, die im rĂ€umlichen Leistungsdichtespektrum (LDS) der Rotverschiebungsraum-Galaxienverteilung des BOSS-Katalogs enthalten ist, genutzt, um den Parameterraum des ÎCDM-Modells und der wichtigsten möglichen Erweiterungen einzuschrĂ€nken. Vorherige Analysen des anisotropen Galaxien-LDS waren auf die Messung der Multipolzerlegung beschrĂ€nkt. FĂŒr die hier prĂ€sentierte Analyse wurde das Konzept der sogenannten âClustering Wedgesâ auf den Fourierraum ĂŒbertragen, um einen komplementĂ€ren Ansatz zur Vermessung des anisotropen LDS zu verfolgen. Dazu wird der varianzoptimierte SchĂ€tzer fĂŒr LDS-Wedges definiert und an die Galaxiengewichtung, die unvermeidbare Beobachtungsfehler im BOSS-Katalog behebt, angepasst. Zudem wird auch der Formalismus zur Beschreibung der Fensterfunktion auf die Wedges erweitert.
Das verwendete Modell fĂŒr das anistrope Galaxien-LDS ist auf neuartigen AnsĂ€tzen zur Modellierung der nichtlinearen Gravitationsdynamik und der Verzerrungen im Rotverschiebungsraum aufgebaut, welche die Genauigkeit der Modellvorhersagen speziell im Ăbergang in den nichtlinearen Bereich signifikant verbessern. Daher kann das LDS bis zu kleineren Skalen als in vorherigen Analysen ausgewertet werden, wodurch engere EinschrĂ€nkungen des kosmologischen Parameterraums erreicht werden. Die Modellierung wurde mit Hilfe von synthetischen Katalogen, die auf groĂvolumigen Mehrkörpersimulationen basieren, verifiziert. Dazu ist eine theoretische Vorhersage der Kovarianzmatrix der anisotropischen Vermessung der Galaxienverteilung nötig, wofĂŒr ein GauĂsches Vorhersagemodell entwickelt wurde. Dieses ist neben den Wedges auch fĂŒr die komplementĂ€re Multipolzerlegung sowohl des LDS als auch dessen Fouriertransformierten, der Zwei-Punkt-Korrelationsfunktion, anwendbar.
Die LDS-Analyse anhand von Clustering Wedges, wie in dieser Arbeit prĂ€sentiert, ist Teil der kombinierten Analyse des finalen Galaxienkatalogs im Rahmen der BOSS-Kollaboration. Unter Verwendung von zwei sich nicht ĂŒberschneidenden Rotverschiebungsbereichen wird die Winkeldurchmesserentfernung zu D_M(z_eff = 0.38) (rfid_d / r_d) = 1525 +-24 h^-1 Mpc und D_M(z_eff = 0.61) (rfid_d / r_d) = 2281 +42 -43 h^-1 Mpc bestimmt. Weiterhin wird der Hubbleparameter zu H(z_eff = 0.38) (r_d / rfid_d) = 81.2 +2.2 â2.3 km s^-1 Mpc^-1 und H(z_eff = 0.61) (r_d / rfid_d) = 94.9 +-2.5 km s^-1 Mpc^-1 vermessen (alle hier angegebenen Bereiche entsprechen einem Konfidenzintervall von 68%). Die
Wachstumsrate wird eingeschrĂ€nkt auf fÏ_8 (z_eff = 0.38) = 0.498 +0.044 -0.045 und fÏ_8 (z_eff = 0.61) = 0.409 +-0.040. Zusammen mit den Ergebnissen der komplementĂ€ren Methoden, die innerhalb der BOSS-Kollaboration zur Clustering-Analyse des finalen Galaxienkatalogs eingesetzt werden, werden diese Resultate zu einem abschlieĂenden Konsensergebnis zusammengefasst.
Nur mit den Clustering-Weges-Messungen im Fourierraum, kombiniert mit MWH- und SN-Daten, kann der Materiedichteparameter auf Ω_M = 0.311 +0.009
-0.010 und die Hubble-Konstante auf H_0 = 67.6 +0.7 -0.6 km s^-1 Mpc^â1 unter Annahme des ÎCDM-Modells eingeschrĂ€nken werden. Wird ein Nichtstandard-Modell fĂŒr DE angenommen, so ergibt sich ein DE-Zustandsgleichungsparameter von w_DE = 1.019 +0.048 -0.039. Modifikationen der Wachstumsrate, parametrisiert durch f(z) = [Ω_M(z)]^Îł, werden auf Îł = 0.52 +- 0.10 eingeschrĂ€nkt. Diese beiden Messungen sind in perfekter Ăbereinstimmung mit den Vorhersagen des ÎCDM-Modells, ebenso wie weitere Ergebnisse, die sich unter der Annahme eines noch groĂzĂŒgigeren DE-Modells (welches eine zeitliche Entwicklung von w_DE erlaubt) ergeben. Daher wird das ÎCDM-Modell durch die hier beschriebene Analyse weiter gefestigt.
Die Summe der Neutrinomassen wird zu sum(m_Îœ) < 0.143 eV bestimmt. Dieses obere Limit befindet sich nicht weit entfernt von der unteren Schranke, die sich aus Teilchenphysik-Experimenten ergibt. Somit ist zu erwarten, dass die kosmologische Signatur, die massebehaftete Neutrinos in der groĂskaligen Struktur des Universums hinterlassen, in naher Zukunft detektiert werden kann.Galaxy surveys cover a large fraction of the celestial sphere using modern multi-fibre spectrographs. Thanks to ever increasing datasets, the analysis of the large-scale structure (LSS) of the Universe has become a prolific source of cosmological information. Together with the observations of the cosmic microwave background (CMB) and samples of supernova (SN) of type Ia, they helped to establish the standard cosmological paradigm, the ÎCDM model. From the analysis of redshift-space galaxy clustering, the expansion history of the Universe can be inferred using the feature of Baryon Acoustic Oscillations (BAO) as a standard ruler to measure cosmic distances. The growth rate of cosmic structure can also be determined using redshift-space distortions (RSD). These measurements provide insight into competing alternatives of the ÎCDM model. The nature of the Dark Energy (DE), a strange component that is believed to be responsible for the current phase of accelerating expansion of the Universe, can be unravelled from BAO measurements of the late-time expansion. Modified theories of gravity can be constrained from the growth rate extracted from RSD, which can deviate from the prediction of general relativity.
The redshift measurements of the Baryon Acoustic Oscillation Survey (BOSS) program that was completed in 2014 yielded a galaxy sample that covers an unprecedented volume. In this thesis, the standard model and its most important extensions are analysed using the cosmological information in the full-shape of the redshift-space two-point statistics measured from the final BOSS galaxy sample. So far, anisotropic clustering analyses in Fourier space relied on power spectrum multipole measurements. For this work, the concept of clustering wedges was extended to Fourier space to establish a complementary approach to measure clustering anisotropies: we introduce the optimal-variance estimator for clustering wedges, which is designed to account for systematic weights that correct the observational incompleteness of the BOSS sample, and also develop the window function formalism for the wedges.
Our modelling of the anisotropic galaxy clustering is based on novel approaches for the description of non-linear gravitational dynamics and redshift-space distortions. This improved modelling allows us to include smaller scales in our full-shape fits than in previous BAO+RSD studies, resulting in tighter cosmological constraints. The galaxy clustering model is verified using synthetic catalogues based on large-volume N -body simulations. As this test requires a theoretical description for the anisotropic clustering covariance matrix, a Gaussian formalism was developed for that purpose. As a side project, this formalism is extended to describe clustering wedges and multipoles in Fourier and configuration space.
The Fourier-space clustering measurements presented in this thesis are part of the joint analysis of the final BOSS sample. Using two non-overlapping redshift bins, we measure an angular diameter distance of D_M(z_eff = 0.38) (rfid_d / r_d) = 1525 +-24 h^-1 Mpc and D_M(z_eff = 0.61) (rfid_d / r_d) = 2281 +42 -43 h^-1 Mpc, as well as a Hubble parameter of H(z_eff = 0.38) (r_d / rfid_d) = 81.2 +2.2 â2.3 km s^-1 Mpc^-1 and H(z_eff = 0.61) (r_d / rfid_d) = 94.9 +-2.5 km s^-1 Mpc^-1 (all limits correspond to the statistical error of a confidence level of 68%). The growth rate is constrained to fÏ_8 (z_eff = 0.38) = 0.498 +0.044 -0.045 und fÏ_8 (z_eff = 0.61) = 0.409 +-0.040. These measurements will be combined with the complementary results from other galaxy clustering methods in configuration and Fourier space in order to determine the final BOSS consensus measurements.
From our analysis alone, in combination with CMB and SN Ia data, we obtain a matter density parameter of Ω_M = 0.311 +0.009
-0.010 and a local Hubble parameter of H_0 = 67.6 +0.7 -0.6 km s^-1 Mpc^â1 assuming a ÎCDM cosmology. Allowing for a non-standard DE model, we find an equation-of-state parameter of w_DE = 1.019 +0.048 -0.039. Modifications of the growth rate, parametrized as f(z) = [Ω_M(z)]^Îł, are constrained to Îł = 0.52 ± 0.10. These two results, along with those obtained using a more general DE model to identify a time-evolution of w_DE, are in perfect agreement with the ÎCDM predictions. Thus, the standard paradigm is further consolidated by our analysis.
The sum of neutrino masses is found to be sum(m_Îœ) < 0.143 eV. As this limit is close to the lower bound from particle physics, a detection of the cosmological signature of massive neutrinos from LSS analyses can be expected in the near future.Deutsche Ăbersetzung des Titels: Anisotrope Messungen der Galaxien-HĂ€ufungsverteilung im Fourierraum und kosmologische Implikationen des BOSS-DR12-Galaxiensample