103 research outputs found

    Generic interferometric synthetic aperture radar atmospheric correction model and its application to co- and post-seismic motions

    Get PDF
    PhD ThesisThe tremendous development of Interferometric Synthetic Aperture Radar (InSAR) missions in recent years facilitates the study of smaller amplitude ground deformation over greater spatial scales using longer time series. However, this poses more challenges for correcting atmospheric effects due to the spatial-temporal variability of atmospheric delays. Previous attempts have used observations from Global Positioning System (GPS) and Numerical Weather Models (NWMs) to separate the atmospheric delays, but they are limited by (i) the availability (and distribution) of GPS stations; (ii) the time difference between NWM and radar observations; and (iii) the difficulties in quantifying their performance. To overcome the abovementioned limitations, we have developed the Iterative Tropospheric Decomposition (ITD) model to reduce the coupling effects of the troposphere turbulence and stratification and hence achieve similar performances over flat and mountainous terrains. Highresolution European Centre for Medium-Range Weather Forecasts (ECMWF) and GPS-derived tropospheric delays were properly integrated by investigating the GPS network geometry and topography variations. These led to a generic atmospheric correction model with a range of notable features: (i) global coverage, (ii) all-weather, all-time usability, (iii) available with a maximum of two-day latency, and (iv) indicators available to assess the model’s performance and feasibility. The generic atmospheric correction model enables the investigation of the small magnitude coseismic deformation of the 2017 Mw-6.4 Nyingchi earthquake from InSAR observations in spite of substantial atmospheric contamination. It can also minimize the temporal correlations of InSAR atmospheric delays so that reliable velocity maps over large spatial extents can be achieved. Its application to the post-seismic motion following the 2016 Kaikoura earthquake shows a success to recover the time-dependent afterslip distribution, which in turn evidences the deep inactive subduction slip mechanism. This procedure can be used to map surface deformation in other scenarios including volcanic eruptions, tectonic rifting, cracking, and city subsidence.This work was supported by a Chinese Scholarship Council studentship. Part of this work was also supported by the UK NERC through the Centre for the Observation and Modelling of Earthquakes, Volcanoes and Tectonics (COMET)

    Design for Reliability and Low Power in Emerging Technologies

    Get PDF
    Die fortlaufende Verkleinerung von Transistor-Strukturgrößen ist einer der wichtigsten Antreiber für das Wachstum in der Halbleitertechnologiebranche. Seit Jahrzehnten erhöhen sich sowohl Integrationsdichte als auch Komplexität von Schaltkreisen und zeigen damit einen fortlaufenden Trend, der sich über alle modernen Fertigungsgrößen erstreckt. Bislang ging das Verkleinern von Transistoren mit einer Verringerung der Versorgungsspannung einher, was zu einer Reduktion der Leistungsaufnahme führte und damit eine gleichbleibenden Leistungsdichte sicherstellte. Doch mit dem Beginn von Strukturgrößen im Nanometerbreich verlangsamte sich die fortlaufende Skalierung. Viele Schwierigkeiten, sowie das Erreichen von physikalischen Grenzen in der Fertigung und Nicht-Idealitäten beim Skalieren der Versorgungsspannung, führten zu einer Zunahme der Leistungsdichte und, damit einhergehend, zu erschwerten Problemen bei der Sicherstellung der Zuverlässigkeit. Dazu zählen, unter anderem, Alterungseffekte in Transistoren sowie übermäßige Hitzeentwicklung, nicht zuletzt durch stärkeres Auftreten von Selbsterhitzungseffekten innerhalb der Transistoren. Damit solche Probleme die Zuverlässigkeit eines Schaltkreises nicht gefährden, werden die internen Signallaufzeiten üblicherweise sehr pessimistisch kalkuliert. Durch den so entstandenen zeitlichen Sicherheitsabstand wird die korrekte Funktionalität des Schaltkreises sichergestellt, allerdings auf Kosten der Performance. Alternativ kann die Zuverlässigkeit des Schaltkreises auch durch andere Techniken erhöht werden, wie zum Beispiel durch Null-Temperatur-Koeffizienten oder Approximate Computing. Wenngleich diese Techniken einen Großteil des üblichen zeitlichen Sicherheitsabstandes einsparen können, bergen sie dennoch weitere Konsequenzen und Kompromisse. Bleibende Herausforderungen bei der Skalierung von CMOS Technologien führen außerdem zu einem verstärkten Fokus auf vielversprechende Zukunftstechnologien. Ein Beispiel dafür ist der Negative Capacitance Field-Effect Transistor (NCFET), der eine beachtenswerte Leistungssteigerung gegenüber herkömmlichen FinFET Transistoren aufweist und diese in Zukunft ersetzen könnte. Des Weiteren setzen Entwickler von Schaltkreisen vermehrt auf komplexe, parallele Strukturen statt auf höhere Taktfrequenzen. Diese komplexen Modelle benötigen moderne Power-Management Techniken in allen Aspekten des Designs. Mit dem Auftreten von neuartigen Transistortechnologien (wie zum Beispiel NCFET) müssen diese Power-Management Techniken neu bewertet werden, da sich Abhängigkeiten und Verhältnismäßigkeiten ändern. Diese Arbeit präsentiert neue Herangehensweisen, sowohl zur Analyse als auch zur Modellierung der Zuverlässigkeit von Schaltkreisen, um zuvor genannte Herausforderungen auf mehreren Designebenen anzugehen. Diese Herangehensweisen unterteilen sich in konventionelle Techniken ((a), (b), (c) und (d)) und unkonventionelle Techniken ((e) und (f)), wie folgt: (a)\textbf{(a)} Analyse von Leistungszunahmen in Zusammenhang mit der Maximierung von Leistungseffizienz beim Betrieb nahe der Transistor Schwellspannung, insbesondere am optimalen Leistungspunkt. Das genaue Ermitteln eines solchen optimalen Leistungspunkts ist eine besondere Herausforderung bei Multicore Designs, da dieser sich mit den jeweiligen Optimierungszielsetzungen und der Arbeitsbelastung verschiebt. (b)\textbf{(b)} Aufzeigen versteckter Interdependenzen zwischen Alterungseffekten bei Transistoren und Schwankungen in der Versorgungsspannung durch „IR-drops“. Eine neuartige Technik wird vorgestellt, die sowohl Über- als auch Unterschätzungen bei der Ermittlung des zeitlichen Sicherheitsabstands vermeidet und folglich den kleinsten, dennoch ausreichenden Sicherheitsabstand ermittelt. (c)\textbf{(c)} Eindämmung von Alterungseffekten bei Transistoren durch „Graceful Approximation“, eine Technik zur Erhöhung der Taktfrequenz bei Bedarf. Der durch Alterungseffekte bedingte zeitlich Sicherheitsabstand wird durch Approximate Computing Techniken ersetzt. Des Weiteren wird Quantisierung verwendet um ausreichend Genauigkeit bei den Berechnungen zu gewährleisten. (d)\textbf{(d)} Eindämmung von temperaturabhängigen Verschlechterungen der Signallaufzeit durch den Betrieb nahe des Null-Temperatur Koeffizienten (N-ZTC). Der Betrieb bei N-ZTC minimiert temperaturbedingte Abweichungen der Performance und der Leistungsaufnahme. Qualitative und quantitative Vergleiche gegenüber dem traditionellen zeitlichen Sicherheitsabstand werden präsentiert. (e)\textbf{(e)} Modellierung von Power-Management Techniken für NCFET-basierte Prozessoren. Die NCFET Technologie hat einzigartige Eigenschaften, durch die herkömmliche Verfahren zur Spannungs- und Frequenzskalierungen zur Laufzeit (DVS/DVFS) suboptimale Ergebnisse erzielen. Dies erfordert NCFET-spezifische Power-Management Techniken, die in dieser Arbeit vorgestellt werden. (f)\textbf{(f)} Vorstellung eines neuartigen heterogenen Multicore Designs in NCFET Technologie. Das Design beinhaltet identische Kerne; Heterogenität entsteht durch die Anwendung der individuellen, optimalen Konfiguration der Kerne. Amdahls Gesetz wird erweitert, um neue system- und anwendungsspezifische Parameter abzudecken und die Vorzüge des neuen Designs aufzuzeigen. Die Auswertungen der vorgestellten Techniken werden mithilfe von Implementierungen und Simulationen auf Schaltkreisebene (gate-level) durchgeführt. Des Weiteren werden Simulatoren auf Systemebene (system-level) verwendet, um Multicore Designs zu implementieren und zu simulieren. Zur Validierung und Bewertung der Effektivität gegenüber dem Stand der Technik werden analytische, gate-level und system-level Simulationen herangezogen, die sowohl synthetische als auch reale Anwendungen betrachten

    Supervisory Wireless Control for Critical Industrial Applications

    Get PDF

    Data Acquisition Applications

    Get PDF
    Data acquisition systems have numerous applications. This book has a total of 13 chapters and is divided into three sections: Industrial applications, Medical applications and Scientific experiments. The chapters are written by experts from around the world, while the targeted audience for this book includes professionals who are designers or researchers in the field of data acquisition systems. Faculty members and graduate students could also benefit from the book

    Novel approaches for the investigation of sound localization in mammals

    Get PDF
    The ability to localize sounds in space is important to mammals in terms of awareness of the environment and social contact with each other. In many mammals, and particularly in humans, localization of sound sources in the horizontal plane is achieved by an extraordinary sensitivity to interaural time differences (ITDs). Auditory signals from sound sources, which are not centrally located in front of the listener travel different distances to the ears and thereby generate ITDs. These ITDs are first processed by binaural sensitive neurons of the superior olivary complex (SOC) in the brainstem. Despite decades of research on this topic, the underlying mechanisms of ITD processing are still an issue of strong controversy and the processing of concurrent sounds for example is not well understood. Here I used in vivo extra-cellular single cell recordings in the dorsal nucleus of the lateral lemniscus (DNLL) to pursue three novel approaches for the investigation of ITD processing in gerbils, a well-established animal model for sound localization. The first study focuses on the ITD processing of static pure tones in the DNLL. I found that the low frequency neurons of the DNLL express an ITD sensitivity that closely resembles the one seen in the SOC. Tracer injections into the DNLL confirmed the strong direct inputs of the SOC to the DNLL. These findings support the population of DNLL neurons as a suitable novel approach to study the general mechanism of ITD processing, especially given the technical difficulties in recording from neurons in the SOC. The discharge rate of the ITD-sensitive DNLL neurons was strongly modulated over the physiological relevant range of ITDs. However, for the majority of these neurons the maximal discharge rates were clearly outside this range. These findings contradict the possible encoding of physiological relevant ITDs by the maximal discharge of single neurons. In contrast, these data support the more recent hypothesis that the discharge rate averaged over a population of ITD-sensitive neurons encodes the location of low frequency sounds. In the second study, I investigated the ITD processing of two concurrent sound sources, extending the classical approach of using only a single sound source. As concurrent sound sources a pure tone and background noise were chosen. The data show that concurrent white noise has a high impact on the response to tones and vice versa. The discharge rate to tones was mostly suppressed by the noise. The discharge rate to the noise was suppressed or enhanced by the tone depending on the ITD of the tone. Investigating the responses to monaural stimulation and to tone stimulation with concurrent spectrally filtered noise, I found that the ITD sensitivity of DNLL neurons strongly depends on the spectral compositions, the ITDs, and the levels of the concurrent sound sources. Two different mechanisms that mediate these findings were identified: monaural across-frequency interactions and temporal interactions at the level of the coincidence detector. Simulations of simple coincidence detector models (in cooperation with Christian Leibold) suggested this interpretation. In the third study of my thesis, the temporal resolution of binaural motion was analyzed. Particularly, it was investigated how fast the neuronal system can follow changes of the ITD. Here, psychophysical experiments in humans and electrophysiological recordings in the gerbil DNLL were performed using identical acoustic stimulation. Although the binaural system has previously been described as sluggish, the binaural response of ITD-sensitive DNLL neurons was found to follow fast changes of ITDs. Furthermore, in psychophysical experiments in humans, the binaural performance was better than expected when using a novel plausible motion stimulus. These data suggest that the binaural system can follow changes of the binaural cues much faster than previously reported and almost as fast as the monaural system, given a physiological useful stimulus. In summary, the results presented here establish the ITD-sensitive DNLL neurons as a novel approach for the investigation of ITD processing. In addition, the usage of more complex and naturalistic stimuli is a promising and necessary approach for opening the field for further studies regarding a better understanding of the hearing process

    Neural plasticity and the limits of scientific knowledge

    Get PDF
    Western science claims to provide unique, objective information about the world. This is supported by the observation that peoples across cultures will agree upon a common description of the physical world. Further, the use of scientific instruments and mathematics is claimed to enable the objectification of science. In this work, carried out by reviewing the scientific literature, the above claims are disputed systematically by evaluating the definition of physical reality and the scientific method, showing that empiricism relies ultimately upon the human senses for the evaluation of scientific theories and that measuring instruments cannot replace the human sensory system. Nativist and constructivist theories of human sensory development are reviewed, and it is shown that nativist claims of core conceptual knowledge cannot be supported by the findings in the literature, which shows that perception does not simply arise from a process of maturation. Instead, sensory function requires a long process of learning through interactions with the environment. To more rigorously define physical reality and systematically evaluate the stability of perception, and thus the basis of empiricism, the development of the method of dimension analysis is reviewed. It is shown that this methodology, relied upon for the mathematical analysis of physical quantities, is itself based upon empiricism, and that all of physical reality can be described in terms of the three fundamental dimensions of mass, length and time. Hereafter the sensory modalities that inform us about these three dimensions are systematically evaluated. The following careful analysis of neuronal plasticity in these modalities shows that all the relevant senses acquire from the environment the capacity to apprehend physical reality. It is concluded that physical reality is acquired rather than given innately, and leads to the position that science cannot provide unique results. Rather, those it can provide are sufficient for a particular environmental setting

    Temporal integration of loudness as a function of level

    Get PDF
    • …
    corecore