University of Siegen
Publikations- und Dokumentenserver der Universitätsbibliothek SiegenNot a member yet
1997 research outputs found
Sort by
Ultradünne Zinnhalogenid-Perowskitfilme auf Gold-Einkristallen
This thesis investigates the growth, structural characteristics, and stability of ultrathin films of the lead-free perovskite CsSnBr3 (cesium tin bromide) on Au(111) and Au(100) substrates under ultra-high vacuum (UHV) conditions. Motivated by the need for environmentally friendly alternatives to lead-based perovskites in optoelectronic applications, this work employs a combination of scanning tunneling microscopy (STM), low-energy electron
diffraction (LEED), and X-ray photoelectron spectroscopy (XPS) to explore the fundamental properties of CsSnBr3 films.
The study examines the behavior of precursor molecules, CsBr and SnBr2, on both gold surfaces, revealing distinct growth patterns and the influence of substrate symmetry on adsorption and subsequent film formation. Co-deposition of these precursors leads to the formation of CsSnBr3 films, the structure of which is analyzed in detail. A tetramer phase on the (001) surface of CsSnBr3 is confirmed through atomically resolved STM imaging
and supported by density functional theory (DFT) calculations. Furthermore, XPS analysis provides insights into the chemical composition of the films and elucidates the degradation mechanisms upon exposure to air, highlighting the critical role of Sn4+ formation in the degradation process.
The findings demonstrate that UHV-grown CsSnBr3 films initially exhibit a favorable Sn2+ oxidation state but degrade rapidly to include Sn4+ states upon air exposure, underscoring the importance of encapsulation for maintaining stability. This research advances the understanding of lead-free perovskite film growth and stability while offering valuable insights for the development of stable, efficient, and environmentally friendly optoelectronic devices.Diese Arbeit untersucht das Wachstum, die strukturellen Eigenschaften und die Stabilität ultradünner Schichten des bleifreien Perowskits CsSnBr3 (Cäsium-Zinn-Bromid) auf Au(111)- und Au(100)-Substraten unter Ultrahochvakuum (UHV)-Bedingungen. Motiviert durch den Bedarf an umweltfreundlichen Alternativen zu bleibasierten Perowskiten in optoelektronischen Anwendungen, kombiniert diese Arbeit Rastertunnelmikroskopie (STM), Niederenergie - Elektronenbeugung (LEED) und Röntgenphotoelektronenspektroskopie (XPS), um die grundlegenden Eigenschaften von CsSnBr3-Filmen zu erforschen.
Die Studie beginnt mit der Untersuchung des Verhaltens der Vorläufermoleküle CsBr und SnBr2 auf beiden Goldoberflächen und zeigt unterschiedliche Wachstumsmuster sowie den Einfluss der Substratsymmetrie auf deren Adsorption und anschließende Filmbildung.
Die Co-Deposition dieser Moleküle führt zur Bildung von CsSnBr3-Filmen, deren Struktur im Detail analysiert wird. Insbesondere wird die Bildung einer Tetramerphase auf der (001)-Oberfläche von CsSnBr3 durch atomar aufgelöste STM-Aufnahmen bestätigt und durch Dichtefunktionaltheorie (DFT)-Berechnungen gestützt. Darüber hinaus liefert die XPS-Analyse Einblicke in die chemische Zusammensetzung der Filme und klärt die Abbaumechanismen bei Luftkontakt auf, wobei die entscheidende Rolle der Sn4+-Bildung im Abbauprozess hervorgehoben wird.
Die Ergebnisse zeigen, dass UHV-gewachsene CsSnBr3-Filme anfänglich einen günstigen Sn2+-Oxidationszustand aufweisen, aber bei Luftkontakt schnell zu Sn4+-Zuständen abgebaut werden, was die Bedeutung der Verkapselung zur Aufrechterhaltung der Stabilität unterstreicht. Diese Forschung trägt nicht nur zum Verständnis des Wachstums und der Stabilität bleifreier Perowskitfilme bei, sondern liefert auch wertvolle Erkenntnisse für die Entwicklung stabiler, effizienter und umweltfreundlicher optoelektronischer Bauelemente
Mental time travelling with Kant
Die Fähigkeit des mentalen Zeitreisens ist für uns völlig alltäglich. Selten bis nie reflektieren wir im Alltag darüber, wie viel Erinnern und wie viel Imaginieren wir im Verlauf eines Tages erleben, wie geprägt unser gegenwärtiges Denken und Handeln von vergangenen Erfahrungen und zukünftigen Zielen ist. Würde aber diese Fähigkeit Schaden nehmen, wie es z. B. im Fall von Demenzerkrankungen eintreten kann oder sogar wegfallen, stellt sich die Frage: Wer wären wir ohne unsere Erinnerungen und ohne unsere Wünsche, Erwartungen und Ziele? Über mentales Zeitreisen nachzudenken bedeutet also, über eine Fähigkeit nachzudenken, die uns Menschen als Menschen ausmacht.
Kant hat allerdings weder viel über Erinnerungen und Imaginationen geschrieben, noch hat er die Psychologie als Wissenschaft gesehen. Indem sich auf die rekonstruierte Wahrnehmungstheorie von Kant bezogen wird und die transzendentalphilosophische Subjektivitätstheorie, wie sie von Gerold Prauss (1990 ff.) entwickelt wurde, zu Grunde gelegt wird, kann Kant und kantisches Vokabular auch in einer modernen Debatte über mentales Zeitreisen herangezogen werden. Kants Wahrnehmungstheorie muss dafür zunächst ergänzt werden, um die Komponenten des Vergangenen wie auch des Zukünftigen. Diese Ergänzung ist genau genommen eine Weiterentwicklung der kantischen Theorie, da sie empirische Befunde ernst nimmt und diese, mittels kantischem Vokabular, aufnimmt.
Die Art und Weise, wie wir Erinnerungen und Imaginationen erzeugen, ist dieselbe. Wir benötigen bei beiden Akten produktive Einbildungskraft, um eine andere Zeitform als die der Gegenwart zu erzielen. Und wir benötigen bei beiden Akten reproduktive Einbildungskraft, um uns ein Objekt/ein Ereignis gegenständlich zu machen. Episodisches Erinnern und Imaginieren bedeutet, dass es um Ereignisse meiner Vergangenheit und Zukunft geht und nicht um die von irgendjemandem. Ausschlaggebend dafür, dass ich eine Erinnerung bzw. eine Imagination als meine annehme, ist mein Bewusstsein: als Selbstverwirklichungs- wie auch Fremdverwirklichungsbewusstsein (Friebe 2005) in der ursprünglichen Wahrnehmung, als Fremd- wie auch Selbstverzeitlichungsbewusstsein in der Erinnerung und Imagination. Letzteres kann nur aktiviert werden, wenn es überhaupt eine Erfahrung gibt, auf die ich mich beziehen kann, von der ich etwas ableiten kann – ob als Erinnerung oder als Imagination. Beide Akte beruhen auf der Fähigkeit eines Subjekts, reflektieren zu können. Damit ist mentales Zeitreisen zunächst nur erfahrenen Subjekten zugänglich, die diese Akte bewusst anstreben. Allerdings sind Erinnerungen in einem höheren Maße irrtumsanfällig. Die in dieser Arbeit beschriebenen Irrtumsmöglichkeiten zeigen daher auch die Unterschiede zwischen Erinnern und Imaginieren auf. Diese Unterschiede können weitere Perspektiven in die Debatte um mentales Zeitreisen einbringen, die noch stark von zwei gegensätzlichen Theorien beherrscht wird: Kausaltheorien und Simulationstheorien. Die erweiterte Subjektivitätstheorie erweist sich als eine hybride Theorie.The ability to mentally travel in time is something we take for granted every day. In everyday life, we rarely or never reflect on how much remembering and how much imagining we experience in the course of a day, or on how our current thoughts and actions are shaped by past experiences and future goals. However, if this ability were damaged or even disappeared, as can happen in the case of dementia, for example, the question arises: who would we be without our memories and without our wishes, expectations, and goals? Therefore, thinking about mental time travel means thinking about an ability that defines us as human beings.
However, Kant did not write much about memories and imagination, nor did he consider psychology to be a science. By referring to Kant's reconstructed theory of perception and using the transcendental philosophical theory of subjectivity (transzendentale Subjektivitätstheorie) as developed by Gerold Prauss (1990 ff.) allows us to incorporate Kant and Kantian vocabulary into a modern debate on mental time travel. Kant's theory of perception must first be extended to include the components of the past and the future. Strictly speaking, this addition is a further development of Kant's theory, as it acknowledges and incorporates empirical findings using Kantian vocabulary.
The way in which we generate memories and imagination is basically the same. We need productive imagination (produktive Einbildungskraft) in both acts in order to achieve a time frame other than the present. We also need reproductive imagination (reproduktive Einbildungskraft) for both processes in order, to represent an object or event. Episodic remembering and imagination are about events in my past and future, not anyone else's. The decisive factor in my accepting of a memory or an imagination as my own is my consciousness. Based on a form of my self-awareness that is considered actual as well as the awareness that others (objects, events...) are actual (Selbst- / Fremdverwirklichungsbewusstsein, Friebe 2005) in the original perception, my remembering and imaging counts as a form of my self-awareness that can place itself and others in different times (Selbst- / Fremdverzeitlichungsbewusstsein). The latter can only be activated if there is any experience at all to which I can refer, from which I can derive something - whether as a memory or an imagination. Both acts are based on the subject's ability to reflect. This means that mental time travelling is initially only accessible to experienced individuals who consciously strive to perform these acts. However, memories are more prone to error. The possibilities for error described in this paper therefore also highlight the differences between remembering and imagining. These differences can provide new insights into the ongoing debate on mental time travel, which is currently dominated by two opposing theories: causal theories and simulation theories. The extended Kantian theory is a hybrid of the two
CliCFPGA: Kollaborationsplattform für komponentenbasierten Entwurf und Verifikation von KI-basierten Systemen mit FPGAs
The increasing demand for real-time data processing has propelled Field Programmable Gate Arrays (FPGAs) as prominent programmable accelerators in modern computing systems, as they often deliver substantial performance gains compared to microprocessors and graphics processing units (GPUs), while also consuming less power. FPGAs are now employed across a wide range of applications and are considered a potential solution to the challenges posed by the deceleration of Moore's Law in chip design. This rise of FPGAs in diverse applications has intensified the need to tailor FPGA design and verification platforms. However, FPGA development environments come with several challenges, such as requiring high-end computers for faster hardware compilation and managing multiple versions of FPGA computer-aided design (CAD) tools, which can create conflicts across different projects. In addition, the existing tools and platforms lack support for modularity, collaboration, and accessibility for novice users, offering no resources like hardware accelerator intellectual property (IP) libraries or tools enhanced by large language models (LLMs). Furthermore, the cost of large-scale FPGAs remains prohibitive for many individuals and institutions, limiting widespread FPGA development across various devices and application domains.
To alleviate these challenges, this thesis proposes CliCFPGA, a flexible and scalable FPGA design, verification, and prototyping platform to simplify education and development by reducing hardware costs through the shared use of high-performance servers and consolidating various FPGA CAD tools onto a single platform. CliCFPGA leverages the FPGA design and verification flow through a collaborative workspace for FPGA design, verification, and prototyping. This collaborative workspace provides full access to the peripherals of FPGA boards, enabling real-time debugging and simultaneous testing of multiple distinct FPGA boards.
On the other hand, to further streamline the Artificial Intelligence (AI)-based hardware accelerator design and verification for FPGAs, CliCFPGA offers an IP library module to provide a pre-verified library of high-performance hardware accelerator IP cores, facilitating rapid and secure FPGA prototyping for non-professional users and beginners. The library encompasses accelerator IP cores for various application domains, ensuring a fast and reliable design and verification process. In addition, CliCFPGA also offers an LLM-assisted tool that can assist in generating and verifying the hardware description language (HDL). This tool enhances productivity by automating complex HDL coding and error detection tasks, significantly reducing FPGA design and verification time.
The evaluation of the CliCFPGA platform effectively automates FPGA design and verification processes. A comprehensive evaluation has been conducted to evaluate the performance of the CliCFPGA platform, incorporating both qualitative and quantitative data to assess its effectiveness in meeting educational and research objectives. Users have expressed increased satisfaction with the platform's ease of use and ability to facilitate collaboration through the CliCFPGA collaborative workspace with real-time feedback. A survey evaluating all the CliCFPGA modules, including software and hardware facilities of the CliCFPGA collaborative workspace, IP library, and LLM-assisted design features, revealed high user satisfaction. Results show that users can save up to 3x the time required to design and verify different applications compared to traditional platforms, highlighting the platform's efficiency. These findings suggest that CliCFPGA significantly enhances the development experience while effectively automating FPGA design processes, supporting educational, industrial, and research needs without compromising performance.Die steigende Nachfrage nach Datenverarbeitung in Echtzeit hat dazu geführt, dass Field Programmable Gate Arrays (FPGAS) zu den wichtigsten programmierbaren Beschleunigern in modernen Computersystemen geworden sind, da sie im Vergleich zu Mikroprozessoren und Grafikprozessoren (GPUs) oft erhebliche Leistungssteigerungen bieten und gleichzeitig weniger Strom verbrauchen. FPGAs werden heute in einem breiten Spektrum von Anwendungen eingesetzt und gelten als potenzielle Lösung für die Herausforderungen, die sich aus der Verlangsamung des Mooreschen Gesetzes beim Chipdesign ergeben. Dieser Anstieg von FPGAs in verschiedenen Anwendungen hat den Bedarf an maßgeschneiderten FPGA-Design- und Verifikationsplattformen verstärkt. FPGA-Entwicklungsumgebungen sind jedoch mit verschiedenen Herausforderungen verbunden, wie z. B. dem Bedarf an High-End-Computern für eine schnellere Hardwarekompilierung und der Verwaltung mehrerer Versionen von FPGA-CAD-Tools (Computer-Aided Design), was zu Konflikten zwischen den verschiedenen Projektversionen führen kann. Außerdem fehlt es den vorhandenen Tools und Plattformen an Unterstützung für Modularität, Zusammenarbeit und Zugänglichkeit für unerfahrene Benutzer, da sie keine Ressourcen wie Bibliotheken für Intellectual Property (IP) von Hardwarebeschleunigern oder durch Large Language Models (LLMs) erweiterte Tools bieten. Darüber hinaus ist die Anschaffung großer FPGAs für viele Einzelpersonen und Institutionen nach wie vor unerschwinglich, was die weit verbreitete FPGA-Entwicklung in verschiedenen Geräten und Anwendungsbereichen einschränkt.
Um diese Herausforderungen zu bewältigen, schlägt diese Arbeit CliCFPGA vor, eine flexible und skalierbare FPGA-Design-, Verifikations- und Prototyping-Plattform, die Ausbildung und Entwicklung vereinfacht, indem sie Hardwarekosten durch die gemeinsame Nutzung von Hochleistungsservern reduziert und verschiedene FPGA-CAD-Tools auf einer einzigen Plattform konsolidiert. CliCFPGA nutzt den FPGA-Design- und Verifikationsfluss durch einen kollaborativen Arbeitsbereich für FPGA-Design, -Verifikation und -Prototyping. Dieser kollaborative Arbeitsbereich bietet vollen Zugriff auf die Peripherie von FPGA-Boards und ermöglicht Debugging in Echtzeit und gleichzeitiges Testen mehrerer unterschiedlicher FPGA-Boards.
Um das Design und die Verifikation von Hardware-Beschleunigern für FPGAs, die auf künstlicher Intelligenz (KI) basieren, weiter zu vereinfachen, bietet CliCFPGA ein IP-Bibliotheksmodul an, das eine vorverifizierte Bibliothek von Hochleistungs-Hardware-Beschleuniger-IP-Cores bereitstellt und so ein schnelles und sicheres FPGA-Prototyping für nicht-professionelle Anwender und Anfänger ermöglicht. Die Bibliothek umfasst Beschleuniger-IP-Cores für verschiedene Anwendungsbereiche und gewährleistet einen schnellen und zuverlässigen Design- und Verifikationsprozess. Darüber hinaus bietet CliCFPGA ein LLM-gestütztes Tool, das bei der Generierung und Verifizierung der Hardwarebeschreibungssprache (HDL) helfen kann. Dieses Tool steigert die Produktivität, indem es komplexe HDL-Codierungs- und Fehlererkennungsaufgaben automatisiert und so die Zeit für FPGA-Design und -Verifikation erheblich reduziert.
Die Evaluierung der CliCFPGA-Plattform automatisiert FPGA-Entwurfs- und Verifikationsprozesse auf effektive Weise. Es wurde eine umfassende Evaluierung durchgeführt, um die Leistung der CliCFPGA-Plattform zu bewerten. Dabei wurden sowohl qualitative als auch quantitative Daten einbezogen, um die Effektivität der Plattform bei der Erfüllung von Ausbildungs- und Forschungszielen zu beurteilen. Die Benutzer äußerten sich sehr zufrieden mit der Benutzerfreundlichkeit der Plattform und der Möglichkeit, die Zusammenarbeit durch den CliCFPGA Collaborative Workspace mit Echtzeit-Feedback zu erleichtern. Eine Umfrage zur Bewertung aller CliCFPGA-Module, einschließlich der Software- und Hardwareeinrichtungen des CliCFPGA Collaborative Workspace, der IP-Bibliothek und der LLM-unterstützten Entwurfsfunktionen, ergab eine hohe Benutzerzufriedenheit. Die Ergebnisse zeigen, dass die Benutzer im Vergleich zu herkömmlichen Plattformen bis zu dreimal so viel Zeit für den Entwurf und die Verifizierung verschiedener Anwendungen einsparen können, was die Effizienz der Plattform unterstreicht. Diese Ergebnisse deuten darauf hin, dass CliCFPGA die Entwicklungserfahrung signifikant verbessert und gleichzeitig FPGA-Designprozesse effektiv automatisiert, um die Bedürfnisse von Ausbildung, Industrie und Forschung ohne Leistungseinbußen zu unterstützen
Kodierte Wellenformen für ein kollokiertes MIMO-Radar mit spärlicher Modellierung
Advanced Driver Assistance Systems (ADAS) for autonomous driving depend on precise environmental sensing to enable safe navigation, prevent collisions, and support reliable decision making. In real world scenarios, no single sensor can overcome all challenges. To address this, modern ADAS systems incorporate a combination of sensors, including cameras, LiDAR, ultrasound, and radar, each contributing unique strengths. Among these, radar is particularly valued for its robustness in adverse weather conditions, making it indispensable for reliable system performance. Specifically, collocatedMultiple InputMultiple Output (MIMO) radar systems are the most suitable choice for ADAS applications, offering a compact size, cost efficiency, and the ability to simultaneously provide spatial information, range, and velocity estimation.
However, conventional automotive radars face significant challenges stemming from low resolution, which complicates the detection of closely spaced objects or targets. These limitations hinder the fusion of multisensor data for reliable ADAS functionality and restrict the development of fully autonomous capabilities. Traditional radar designs rely on uniformly spaced array configurations, inherently tying spatial resolution to aperture size and to the number of physical antenna elements. Additionally, existing waveform candidates often suffer from interference or elevated sidelobes, leading to scenarios with masking effects. Efforts to achieve higher resolution without sidelobe artifacts typically result in increased costs, greater data storage requirements, and higher computational complexity, reducing their practicality in real world applications.
One notable aspect of MIMO radars is that the measured scene is inherently sparse. Sparsity refers to a property of signals or datasets where only a small number of elements (or features) carry significant information, while the rest are zero or near zero. This characteristic is fundamental to advanced signal processing methods like compressed sensing (CS), which enables high dimensional data to be represented and recovered using far fewermeasurements than traditionally required. While most studies emphasize exploiting sparsity in the scene domain, focusing on reconstructing relevant features in 2DMIMO scenes such as Range-Angle (RA) or Doppler-Angle (DA), sparsity in the signal domain often remains under explored. Signal domain sparsity leverages inherent redundancies in raw radar signals, enablingmore efficient data acquisition and reconstruction. By reducing these redundancies in signal acquisition, CSmethods can be appliedmore effectively. This approach opens the door to replacing conventional reconstruction blocks with CS based architectures, enabling the development of efficient CS-MIMO radars that optimize both sensing and computational efficiency.
CS holds great promise for MIMO radar systems, enabling high resolution sensing with fewer measurements. However, its practical implementation faces key challenges, including reconstruction errors and computational load. Central to these issues is the sensing matrix, which links the radar system to the scene. High resolution requirements often necessitate large sensing matrices, increasing storage demands and computational complexity.
Additionally, gridding errors caused by mismatches between the assumed model and real world scenes lead to reconstruction artifacts, false alarms, and reduced efficiency, further limiting reliability.
Most studies address these challenges by designing algorithms that incorporate random projections into existing system models, providing incremental improvements in CS based reconstruction. While these methods enhance certain aspects of performance, they often rely on adapting conventional system designs rather than fundamentally rethinking the system architecture. In this study, we take a different approach by exploring a strategy that optimizes the radar system itself for improved CS performance. This involves replacing conventional signal processing frameworks with CS specific sensing matrices, designed to minimize gridding errors and computational demands. By treating system level parameters such as array geometry and waveform configurations as variables for optimization, we aimto create a radar architecture inherently suited for CS based processing, enhancing both reconstruction accuracy and systemefficiency.
We propose a mutual coherence minimization approach by treating waveformand array configurations as key parameters for optimization. Two algorithms are introduced: one to independently optimize themodulating phase components of the coding sequences of the waveform configuration, and another to optimize the positional placement of array elements. Unlike conventional studies, which rely on the Frobenius norm ∥G−I∥F of the Gramian G of the sensing matrix and random sub sampling, we adopt a more aggressive strategy using the infinity norm|G−I∥∞. This approach, combined with a Temperature Guided Perturbationmethod termed Annealed Projections, effectively optimizes both waveformand array configurations. The resultant waveforms exhibit superior auto and cross correlation properties, achieving lower sidelobe levels compared to state of the art techniques. Similarly, the optimized array offers enhanced resolution and reconstruction performance, particularly within the CS formulation.
Building on this, we further improve computational efficiency with a novel strategy called Sparse Annealed Projections (SAP). This weighted optimization technique imposes signal sparsity by exploiting redundancies in the system configuration. Using a priori information, SAP identifies the optimal number of spatial samples, reducing storage requirements associated with the sensing matrix size. This proposed methodology ensures seamless incorporation of CS into MIMO architectures, achieving reduced computational loads, compact storage requirements, and improved overall performance.
To validate the proposedmethodology, we conducted experiments on synthetic data usingMonte Carlo simulations.
The results demonstrate significant improvements in scene reconstruction performance, providing a proof of concept for designing sub Nyquist CDMA MIMO radar architectures for automotive imaging radar systems. This study establishes a robust framework for designing radar systems that balance high performance with computational efficiency, paving the way for advancements in ADAS and autonomous driving technologies.Fortschrittliche Fahrerassistenzsysteme (ADAS) für das autonome Fahren sind auf eine präzise Erfassung der Umgebung angewiesen, um eine sichere Navigation zu ermöglichen, Kollisionen zu vermeiden und eine zuverlässige Entscheidungsfindung zu unterstützen. In realen Szenarien kann kein einzelner Sensor alle Herausforderungen meistern. Deshalb setzen moderne ADAS-Systeme eine Kombination von Sensoren ein, darunter Kameras, LiDAR, Ultraschall und Radar, die alle ihre eigenen Stärken haben. Unter diesen wird das Radar besonders wegen seiner Robustheit bei ungünstigenWetterbedingungen geschätzt, was es für eine zuverlässige Systemleistung unverzichtbar macht. Insbesondere kollokierteMultiple-Input-Multiple-Output (MIMO)-Radarsysteme sind die besteWahl für ADAS-Anwendungen, da sie eine kompakte Größe, Kosteneffizienz und die Fähigkeit bieten, gleichzeitig räumliche Informationen, Reichweite und Geschwindigkeitsschätzung zu liefern.
Herkömmliche Kfz-Radare stehen jedoch vor erheblichen Herausforderungen, die sich aus der geringen Auflösung ergeben, die die Erkennung von eng beieinander liegenden Objekten oder Zielen erschwert. Diese Einschränkungen behindern die Zusammenführung vonMultisensordaten für zuverlässige ADAS-Funktionen und schränken die Entwicklung vollständig autonomer Funktionen ein. Herkömmliche Radarkonzepte beruhen auf Array-Konfigurationen mit gleichmäßigen Abständen, bei denen die räumliche Auflösung an die Größe der Apertur und die Anzahl der physischen Antennenelemente gebunden ist. Darüber hinaus leiden bestehende Wellenformkandidaten oft unter Interferenzen oder erhöhten Nebenkeulen, was zu Szenarien mit Maskierungseffekten führt. Bemühungen, eine höhere Auflösung ohne Nebenkeulenartefakte zu erreichen, führen in der Regel zu höheren Kosten, größerem Datenspeicherbedarf und höherer Rechenkomplexität, was ihre Praxistauglichkeit in realen Anwendungen einschränkt.
Ein bemerkenswerter Aspekt von MIMO-Radaren ist, dass die gemessene Szene von Natur aus spärlich ist. Spärlichkeit bezieht sich auf eine Eigenschaft von Signalen oder Datensätzen, bei denen nur eine kleine Anzahl von Elementen (oderMerkmalen) signifikante Informationen tragen, während der Rest null oder nahezu null ist. Diese Eigenschaft ist von grundlegender Bedeutung für fortschrittliche Signalverarbeitungsmethoden wie das Compressed Sensing (CS), das die Darstellung und Wiederherstellung hochdimensionaler Daten mit weitaus weniger Messungen als traditionell erforderlich ermöglicht. Während die meisten Studien die Ausnutzung der Sparsamkeit imSzenenbereich betonen und sich auf die Rekonstruktion relevanterMerkmale in 2D-MIMO-Szenen wie Range-Angle (RA) oder Doppler-Angle (DA) konzentrieren, bleibt die Sparsamkeit im Signalbereich oft unerforscht. Die Sparsamkeit im Signalbereich nutzt inhärente Redundanzen in Radar-Rohsignalen und ermöglicht eine effizientere Datenerfassung und -rekonstruktion. Durch die Reduzierung dieser Redundanzen bei der Signalerfassung können CS-Methoden effektiver eingesetzt werden. Dieser Ansatz eröffnet dieMöglichkeit, herkömmliche Rekonstruktionsblöcke durch CS-basierte Architekturen zu ersetzen und damit die Entwicklung effizienter CS-MIMO-Radare zu ermöglichen, die sowohl die Erfassungs- als auch die Berechnungseffizienz optimieren.
CS ist ein vielversprechender Ansatz für MIMO-Radarsysteme, der eine hochauflösende Erfassung mit weniger Messungen ermöglicht. Die praktische Umsetzung steht jedoch vor großen Herausforderungen, darunter Rekonstruktionsfehler und Rechenaufwand. ImMittelpunkt dieser Probleme steht die Erfassungsmatrix, die das Radarsystem mit der Szene verbindet. Hohe Auflösungsanforderungen erfordern oft große Erfassungsmatrizen,
was den Speicherbedarf und die Rechenkomplexität erhöht. Darüber hinaus führen Rasterfehler, die durch Unstimmigkeiten zwischen dem angenommenenModell und den realen Szenen verursacht werden, zu Rekonstruktionsartefakten, Fehlalarmen und verminderter Effizienz, was die Zuverlässigkeit weiter einschränkt.
Die meisten Studien befassen sich mit diesen Herausforderungen, indem sie Algorithmen entwickeln, die zufällige Projektionen in bestehende Systemmodelle einbeziehen und so schrittweise Verbesserungen bei der CS-basierten Rekonstruktion ermöglichen. Diese Methoden verbessern zwar bestimmte Leistungsaspekte, beruhen aber oft auf der Anpassung konventioneller Systemdesigns, anstatt die Systemarchitektur grundlegend zu überdenken. In dieser Studie verfolgen wir einen anderen Ansatz, indem wir eine Strategie erforschen, die das Radarsystem selbst für eine verbesserte CS-Leistung optimiert. Dabei werden herkömmliche Signalverarbeitungssysteme durch CS-spezifische Abtastmatrizen ersetzt, die darauf ausgelegt sind, Gitterfehler und Rechenaufwand zu minimieren. Indem wir Parameter auf Systemebene wie Array-Geometrie und Wellenformkonfigurationen als Variablen für die Optimierung behandeln, wollen wir eine Radararchitektur schaffen, die von Natur aus für CS-basierte Verarbeitung geeignet ist und sowohl die Rekonstruktionsgenauigkeit als auch die Systemeffizienz verbessert.
Wir schlagen einen Ansatz zur Minimierung der gegenseitigen Kohärenz vor, indem wir Wellenform- und Array-Konfigurationen als Schlüsselparameter für die Optimierung behandeln. Es werden zwei Algorithmen eingeführt:
einer zur unabhängigen Optimierung der modulierenden Phasenkomponenten der Kodiersequenzen derWellenformkonfiguration und ein weiterer zur Optimierung der Positionsplatzierung der Array-Elemente. Im Gegensatz zu konventionellen Studien, die sich auf die Frobenius-Norm ∥G−I∥F der Gramian G der Abtastmatrix und zufällige Unterabtastung stützen, verfolgen wir eine aggressivere Strategie unter Verwendung der Unendlichkeitsnorm|G−I∥∞. Dieser Ansatz, kombiniert mit einer temperaturgeführten Störungsmethode, die als geglühte Projektionen bezeichnet wird, optimiert effektiv sowohl die Wellenform als auch die Array-Konfigurationen. Die resultierendenWellenformen weisen hervorragende Auto- und Kreuzkorrelationseigenschaften auf und erreichen im Vergleich zumStand der Technik geringereNebenkeulenwerte. In ähnlicher Weise bietet das optimierte Array eine verbesserte Auflösung und Rekonstruktionsleistung, insbesondere innerhalb der CS-Formulierung.
Darauf aufbauend verbessern wir die Berechnungseffizienz mit einer neuen Strategie namens Sparse Annealed Projections (SAP). Dieses gewichtete Optimierungsverfahren sorgt für eine spärliche Signalverteilung, indem es Redundanzen in der Systemkonfiguration ausnutzt. Unter Verwendung von a priori Informationen identifiziert SAP die optimale Anzahl räumlicher Abtastungen, wodurch die mit der Größe der Abtastmatrix verbundenen Speicheranforderungen reduziert werden. Die vorgeschlageneMethodik gewährleistet die nahtlose Integration von CS inMIMO-Architekturen, wodurch eine geringere Rechenlast, kompaktere Speicheranforderungen und eine verbesserte Gesamtleistung erreicht werden.
Zur Validierung der vorgeschlagenen Methodik haben wir Experimente mit synthetischen Daten unter Verwendung vonMonte-Carlo-Simulationen durchgeführt. Die Ergebnisse zeigen signifikante Verbesserungen in der Leistung der Szenenrekonstruktion und liefern einen Konzeptnachweis für die Entwicklung von CDMA-MIMORadararchitekturen mit Sub-Nyquist-Verfahren für bildgebende Radarsysteme in Fahrzeugen. Diese Studie schafft einen robusten Rahmen für die Entwicklung von Radarsystemen, die hohe Leistung und Recheneffizienz in Einklang bringen, und ebnet so denWeg für Fortschritte bei ADAS und autonomen Fahrtechnologien
Komplotte und Konspirationen
Der Aufsatz entwickelt die These, dass wir es in Dan Browns „Sakrileg“ mit einer eigentümlichen Form von Mittelalterlichkeit und von Wissenschaftspopularisierung in Form eines Gegenwartsthrillers zu tun haben. Das Geheimnis um den Gral, das nicht von vielen oder von niemandem beachtet werden durfte, wird durch die katholische Kirche depopularisiert und dekanonisiert. Es entsteht ein Bild von Wissenschaft das gerade der Wieder-, nicht der Entzauberung der Welt dient. Dieser Wissenspopularisierung entspricht auf der Seite der ‚Wissensverarbeitungsmodi‘ die Figur des Autodidakten, der die Lektüre von Dan Browns Sakrileg als Erweckungserlebnis feiert und ihn so popularisiert. Die Verschwörungsthematik bei Dan Brown gehört zur erzählten Welt, weil wir es auf beiden Seiten – der Verschwörung des Opus Dei aus Sicht der Aufklärung und der Verschwörung der Prieuré de Sion aus Sicht des Katholizismus – mit der narrativen Inszenierung von ‚Halbwahrheiten‘ zu tun haben, die für die innere Kohärenz der Geschichte sorgen. Abschließend weitere Gedanken zur Präsenz des populären Wissens vom Mittelalter im in der Literaturgeschichte und im Gegenwartsroman entwickelt.The essay argues that Dan Brown’s The Da Vinci Code represents a unique blend of medievalism and the popularization of science, framed within the context of a modern thriller. The so-called “secret” of the Grail, which was once shrouded in mystery and reserved for a select few, is effectively depopularized and decanonized by the Catholic Church. In doing so, the novel presents science not as a force of disenchantment, but as a means of re-enchanting the world. This popularization of knowledge aligns with the figure of the autodidact, who finds in The Da Vinci Code an awakening experience, further contributing to the novel’s widespread appeal. The theme of conspiracy in The Da Vinci Code is integral to its narrative, with the conflict between the Opus Dei faction (from an Enlightenment perspective) and the Priory of Sion (from a Catholic standpoint) serving as the backdrop. Both conspiracies rely on the manipulation of “half-truths,” which help maintain the story’s internal coherence. Ultimately, the essay also explores the significance of medieval knowledge in contemporary literature, reflecting on how such themes are woven into the fabric of modern narrative and literary history
Sustainability and how to teach it at school
Der Begriff der Nachhaltigkeit ist im Sprachgebrauch allgegenwärtig. Dabei entsteht Eindruck, dass die Interpretation dessen, was nachhaltig ist oder sein könnte, nicht nur leicht changiert, sondern über ein breiteres Spektrum hinweg divergiert. Die „Nachhaltigkeit“ wird von den verschiedensten Interessensgruppen für deren jeweilige Zwecke instrumentalisiert. Nachhaltiger Konsum, nachhaltiges Wachstum, nachhaltige Börsenerträge – gibt es das wirklich? Dieses Gemenge aus Deutungen und Wissen führt zu einem vollkommen inkonsistenten und kaum fassbaren Begriffsinhalt der Nachhaltigkeit, der sich auch im allgemeinen Sprachgebrauch durchgesetzt hat.
In dieser Arbeit wird anhand verschiedener Beispiele gezeigt, dass der schulische Bereich unter dieser unreflektierten Betrachtungsweise leidet. Schon die Definition des Nachhaltigkeitsbegriffes ist allzu oft ein schulisches Desiderat, was zwangsläufig zu gedanklichen Schwierigkeiten führen muss, die selbstredend adäquate Handlungskompetenzen verhindern. Eine Lehrplananalyse zum Begriff der Nachhaltigkeit verdeutlicht die geringe Bedeutung des Themas im unterrichtlichen Kontext. “Nachhaltigkeit“ wird nicht exemplarisch definiert, taucht stattdessen in unterschiedlichen Kontexten und Konnotationen auf. Bei der Untersuchung von Unterrichtmaterialien für die Schule ist diese Uneindeutigkeit klar erkennbar: die Nachhaltigkeit wird überwiegend für Vorgangsbeschreibungen im Sinne von „dauerhaft“ verwendet. Soll in wenigen Fällen die Nachhaltigkeit als Kriterium angewendet werden, liegt dazu meist keine Definition vor. Wie in der vorliegenden Promotionsschrift dargelegt wird, lässt sich auch anhand von Sicht- und Verhaltensweisen von Studierenden nachweisen, dass sie kaum auf den klassischen Nachhaltigkeitsgedanken – nämlich die Regenerationsfähigkeit von Ressourcen – fokussiert sind.
An diesen Befunden setzt die Dissertationsschrift an und hat als Hauptziel, die schulische Nachhaltigkeitsdiskussion auf eine fachwissenschaftlich solide Basis zu stellen. Dies erfolgt ausgehend vom klassischen Nachhaltigkeitsdiskurs, der allerdings eine begriffliche Ausweitung erfordert. Diese vom Autor vorgeschlagene Erweiterung zielt auf Aspekte der Nachhaltigkeit, die einerseits in der heutigen gesellschaftlichen Diskussion häufig genannt werden und andererseits sich aus dem Gedanken der klassischen Nachhaltigkeit herleiten lassen. Die fünf Aspekte der Nachhaltigkeit, deren Zusammenwirken in der Arbeit erläutert wird, sind die Grundlage eines vom Autor vorgeschlagenen Lehr-Lern-Modells einer Nachhaltigkeitsampel. Diese Nachhaltigkeitsampel ermöglicht eine zielführende Beschäftigung mit dem Komplex der Nachhaltigkeit, etwa eine durch Kriterien geleitete Diskussion von unterschiedlichen Sachverhalten im Unterricht. Es geht dabei primär nicht darum, das „Label“ Nachhaltigkeit zu verteilen, sondern verschiedene zivilisatorischer Verhaltensweisen miteinander zu vergleichen und gegeneinander abzuwägen. Ergänzend werden Aufgaben für den Unterricht zur praktischen Veranschaulichung der Nachhaltigkeit bereitgestellt.
Damit werden begrifflich saubere und faktenbasierte gedankliche Auseinandersetzungen zum Themenfeld Nachhaltigkeit im Unterricht ermöglicht.The term sustainability is omnipresent in everyday language. This gives the impression that the interpretation of what is or could be sustainable not only varies slightly, but also diverges across a broader spectrum. “Sustainability” is instrumentalized by the most diverse interest groups for their respective purposes: Sustainable consumption, sustainable growth, sustainable stock market returns - do they really exist? This mixture of interpretations and knowledge leads to a completely inconsistent and barely comprehensible concept of sustainability, which has also become established in common parlance.
This paper uses various examples to show that the school sector also suffers from this little reflected approach. Even a clear definition of the concept of sustainability is all too often a desideratum in schools, which inevitably leads to intellectual difficulties that naturally prevent adequate competencies for action. The curriculum analysis of the concept of sustainability shows that the topic is of little importance in the teaching context. “Sustainability” is not defined by way of example, but instead appears in different contexts and connotations. When examining teaching materials for schools, this ambiguity is clearly recognizable: sustainability is predominantly used to describe processes in the sense of “lasting”. If sustainability is to be used as a criterion in other cases, there is usually no definition given. As shown in this doctoral thesis, it can also be demonstrated on the basis of students' views and behaviors that they are hardly focused on the classic idea of sustainability - namely the regenerative capacity of resources.
The dissertation takes these findings as its starting point and sets itself the main goal of placing the discussion on sustainability in schools on a solid scientific basis. This is based on the classic sustainability discourse, which, however, requires a conceptual expansion. This expansion proposed by the author is aimed at aspects of sustainability that are frequently mentioned in today's social discussion on the one hand and can be derived from the idea of classical sustainability on the other. There are five aspects of sustainability, whose interaction is being explained, form the basis of a model of a “sustainability traffic light” proposed by the author. This “sustainability traffic light” makes it possible to deal with the complex of sustainability in a targeted manner, for example a discussion of different issues in the classroom guided by criteria. The primary aim is not to assign the “label” of sustainability, but to compare and weigh up different civilizational behaviors. In addition, tasks are provided for lessons to illustrate sustainability in practice.
This enables conceptually clean and fact-based intellectual discussions on the topic of sustainability in the classroom
Einfluss von optischer Unschärfe auf Deep Learning basierte Modelle zur Bildklassifikation und Objekterkennung
Deep Neural Networks (DNNs) have proven to be successful in various computer vision applications such that vision models even infer in safety-critical situations. Therefore, the models need to be robust to disturbances such as image noise or blur. While seminal benchmarks exist to evaluate model robustness to diverse image corruptions, blur is often approximated in an overly simplistic way to model e.g. defocus, while ignoring the different blur kernel shapes that result from optical systems.
This thesis proposes several test methods and datasets of optical blur corruptions, referred to as OpticsBench and LensCorruptions. OpticsBench examines primary aberrations such as coma, defocus, and astigmatism, i.e. aberrations that can be represented by varying a single parameter of Zernike polynomials and are easy to interpret. The OpticsBench method ensures comparability of the optical blur corruptions to in-size or in-accuracy matched references to investigate relative distribution shifts. To go beyond the principled but synthetic setting of primary aberrations, LensCorruptions samples linear combinations in the vector space spanned by Zernike polynomials, corresponding to real lenses. The evaluation on differently blurred ImageNet-1k images shows that the results for models confronted to the OpticsBench blur and to a disk-shaped reference blur, vary up to 5 % and the class-wise accuracy varies up to 30 % for optical image corruptions against a disk-shaped reference. We therefore conclude that the colour-dependent kernel shape must be taken into account when testing the model robustness as the accuracy cannot be explained sufficiently with the reference blur accuracy. To this end, we provide a large test dataset of optical blur distribution shifts, using the complementary LensCorruptions method, which simplifies future robustness research. The evaluation shows that some models favour certain blur types when confronted with a large number of lens blurs. Since increased image blur is generally detrimental to performance, we also show that the performance loss caused by optical aberrations can be significantly compensated for using the OpticsAugment data augmentation method and demonstrate superior performance compared to a strong baseline on both the proposed optical blur test datasets and 2D and 3D corruptions. Finally, since lens blur generally depends on the image location, a space-variant image blur corruption and corresponding test dataset are discussed on the Berkeley Deep Drive automotive dataset for several object detection models. To analyse how this spatial variance may affect the local performance of object detection models, the local evaluation method SRIA is proposed. In summary, the thesis provides several concepts and methods to test for optical blur corruptions and to improve the model robustness. The combination of these efficient evaluation methods and improvements in model robustness increases the safety of future computer vision systems.DNNs sind aus vielen Bildverarbeitungsanwendungen nicht mehr wegzudenken, so dass Computer-Vision Modelle sogar in sicherheitskritischen Situationen Anwendung finden. Die Modelle müssen daher auch unter Einflüssen wie Bildrauschen oder Unschärfe zuverlässig agieren. Während es grundlegende Benchmarks gibt, um die Robustheit von Modellen gegenüber verschiedenen Bildstörungen zu bewerten, wird Unschärfe oft auf eine zu einfache Art und Weise approximiert, wodurch die verschiedenen charakteristischen Formen des Unschärfekernels, die optische Systeme hervorrufen, ignoriert werden. In dieser Arbeit werden hierzu mehrere Testmethoden und Datensätze für optische Bildunschärfe vorgeschlagen, die wir als OpticsBench und LensCorruptions zusammenfassen.
OpticsBench untersucht primäre Aberrationen wie Koma, Defokussierung und Astigmatismus. Diesen Aberrationen ist gemeinsam, dass sie durch Variation eines einzigen Parameters von Zernike-Polynomen dargestellt werden können und leicht zu interpretieren sind. OpticsBench gewährleistet die Vergleichbarkeit der optischen Bildunschärfe mit einer größenangepassten Referenzunschärfe, um relative Distribution Shifts zu untersuchen. In der Erweiterung über die primären Aberrationen hinaus, tastet LensCorruptions, im Gegensatz zu OpticsBench, Linearkombinationen im Vektorraum ab, der von Zernike-Polynomen aufgespannt wird und reale Objektive abbildet. Die Auswertung auf unterschiedlich unscharfen ImageNet-1k-Bildern zeigt, dass Modelle, die mit der OpticsBench-Unschärfe und einer scheibenförmigen Referenzunschärfe konfrontiert werden bis zu 5 % in der Genauigkeit variieren und die klassenweise Genauigkeit bis zu 30 % für optische Bildunschärfen gegenüber einer scheibenförmigen Referenzunschärfe variiert. Daraus schließen wir, dass die farbabhängige Kernelform bei der Prüfung der Robustheit von Modellen berücksichtigt werden muss, da das Modellverhalten nicht ausreichend mit den Ergebnissen für die Referenzunschärfe erklärt werden kann. Zu diesem Zweck stellen wir einen großen Testdatensatz optischer Unschärfen zur Verfügung, bei dem die komplementäre LensCorruptions-Methode verwendet wird, was die zukünftige Robustheitsforschung vereinfacht. Die Auswertung mit einer großen Anzahl von Objektivunschärfen zeigt, dass einige Modelle bestimmte Unschärfetypen bevorzugen. Da eine erhöhte Bildunschärfe im Allgemeinen die Leistung beeinträchtigt, zeigen wir auch, dass der durch optische Aberrationen verursachte Leistungsverlust mit Data Augmentation erheblich kompensiert werden kann, und demonstrieren sowohl bei den vorgeschlagenen Testdatensätzen für optische Unschärfe als auch bei 2D- und 3D Common Corruptions mit OpticsAugment eine überlegene Leistung im Vergleich zu einer starken Referenz. Da die Unschärfe der Objektive im Allgemeinen von den Objektkoordinaten abhängt, werden schließlich eine räumlich variable Unschärfe simuliert und der entsprechende Testdatensatz auf dem BDD-Automobildatensatz für verschiedene Objekterkennungsmodelle diskutiert. Um zu analysieren, wie sich diese räumliche Varianz auf die lokale Leistung von Objekterkennungsmodellen auswirkt, wird die lokale Bewertungsmethode SRIA vorgeschlagen. Zusammenfassend stellt die Arbeit mehrere Konzepte und Methoden zur Verfügung, um auf optische Unschärfe zu testen und die Robustheit von Bildklassifizierungs- und Objektdetektionsmodellen zu verbessern. Die Kombination dieser effizienten Evaluierungsmethoden und der Verbesserung der Modellrobustheit erhöht die Sicherheit zukünftiger Computer-Vision Systeme
Flexibility in SMEs – A Multiperspective Analysis of Creating Sustainable Competitive Advantage in Owner-Managed Family Businesses
Online-Version inklusive AnhangDeutsche Familienunternehmen sind das Rückgrat der deutschen Wirtschaft. Mit Innovationskraft und Verantwortungsbewusstsein führten die Familien hinter diesen Traditionsunternehmen Deutschland durch mehrere Krisen und Umbrüche. Trotz dieser enormen Bedeutung existieren bis heute Unklarheiten, weswegen Familienunternehmen eine derartige Beständigkeit an den Tag legen. Generationenübergreifende Schaffenskraft sowie eine einzigartige Unternehmenskultur heben Familienunternehmen von größeren und bekannteren Unternehmen ab. Dadurch, dass die Mehrheit der Familienunternehmen unbemerkt innerhalb von Nischen zur Marktführerschaft gelangt ist, bestehen Unklarheiten über das Erfolgsgeheimnis dieser Wirtschaftssphäre Deutschlands fort.
Ziel dieser Dissertation ist es, herauszufinden, wie der nachhaltige Wettbewerbsvorteil von Familienunternehmen durch jene Person vorangetrieben wird, die im Zentrum des Unternehmens steht: der Eigentümer-Manager. Diese Überschneidung von Eigentum und Management ist das Alleinstellungsmerkmal des für den für Deutschland charakteristischen Mittelstand. Auf Basis einer multimethodischen Untersuchung wird analysiert, wie die Flexibilität des Eigentümer-Managers durch Gestaltung der Innovationskraft den Wettbewerbsvorteil beeinflusst. Der multiperspektivische Ansatz der Dissertation kommt dem holistischen Anspruch nach, sodass die Einzigartigkeit des Mittelstands ganzheitlich ergründet werden kann.
Das Resultat der Untersuchung ist ein mehrstufiges Modell, welches veranschaulicht, dass der langfristige Erfolg des Familienunternehmens in vielfacher Hinsicht von der persönlichen Flexibilität des Eigentümer-Managers abhängt. Jedoch ist das Erfolgsgeheimnis nicht in Zahlen und Daten greifbar. Ein wichtiger Schlüssel ist die Intuition des Eigentümer-Managers, das oft hervorgehobene Bauchgefühl. In integrativer Weise werden die qualitativen und quantitativen Ergebnisse zusammengeführt, um einen tiefgründigen Ansatz zu schaffen, welcher nachvollziehbar macht, wie der Mittelstand über Jahrzehnte und Jahrhunderte hinweg Erfolgsgeschichten prägt, um die der Rest der Welt Deutschland beneidet.German family businesses are the backbone of the German economy. With exceptional innovative capacity and a strong sense of responsibility, the families behind these traditional enterprises have guided Germany through multiple crises and transitions. Despite their substantial significance, uncertainties still exist as to why family businesses exhibit such resilience. Their intergenerational drive and unique corporate culture distinguish them from larger, far more visible companies. Given that most family businesses achieve market leadership unnoticed within niches, the mystery surrounding the success of this critical sector of the German economy endures.
The aim of this dissertation is to discover how the sustainable competitive advantage of family businesses is driven by the person at the heart of the company: the owner-manager. This intersection of ownership and management is the unique characteristic of Germany's typical so-called Mittelstand. Using a multi-method approach, this study examines how the flexibility of the owner-manager, through the development of innovation, influences competitive advantage. The owner-manager is where the corporate and family systems overlap. The multiperspective approach of this dissertation addresses a holistic aim, allowing a comprehensive exploration of the uniqueness of German family businesses.
The result of the study is a multi-stage model demonstrating that the long-term success of family businesses depends in many ways on the personal flexibility of the owner-manager. However, the secret of success cannot be captured in numbers and data alone. A key factor is the owner-manager's intuition – the often-highlighted gut feeling. In an integrative manner, qualitative and quantitative results are combined to create an in-depth approach that explains how the German Mittelstand has crafted success stories over decades and centuries that the rest of the world admires
Erziehungswissenschaft als Beruf. Ein Rechenschaftsbericht
Gerahmt von einer Paraphrase des Vortrags von Max Weber über »Wissenschaft als Beruf« gibt der Autor Rechenschaft über sein Berufsleben. Dazu zieht er eine Reihe von Texten heran, die als Stichprobe seiner Arbeiten dienen sollen: Rückblick auf die Dissertation und Folgeuntersuchungen zu August Herrmann Francke; Berichte über – meist inhaltsanalytische – Forschungsvorhaben; Beobachtungen und kritische Anmerkungen zum akademischen Unterricht; kritische Erörterungen zu seiner Wissenschaft. So beklagt er das, was er als »Ansatzologie« bezeichnet, und fragt, ob in seiner Wissenschaft noch Platz für die Kategorie des »Bösen« ist, und antwortet: »Tua res agitur« – »Auch deine Sache ist’s, wenn die Hütte des Nachbarn brennt.
Kolonialität und Geschlecht. Eine rekonstruktive Analyse der Erfahrungen peruanischer Aktivistinnen im Kontext von Zwangssterilisationen
In den 1990er-Jahren wurden in Peru bis zu 300.000 indigene, vorwiegend auf dem Land lebende Frauen im Rahmen einer Gesundheitsreform zwangssterilisiert. Seit fast dreißig Jahren gründen diese betroffenen Frauen Organisationen, um sich selbst zu organisieren. Ein zentrales Ziel dieser Selbsthilfeinitiativen ist es, die erlittene staatliche Gewalt sichtbar zu machen, ihre Folgen zu benennen und Entschädigungen zu fordern. Die vorliegende soziologische Studie beleuchtet die Erfahrungen dieser zivilgesellschaftlich engagierten Frauen in Peru, die sich seit drei Jahrzehnten für ein würdiges Gedenken und die Verantwortungsübernahme des Staates einsetzen.
Aus einer dekolonialen und geschlechtertheoretischen Perspektive werden die vielschichtigen gesellschaftlichen Dynamiken beleuchtet, die zur staatlichen Gewalt führten und weiterhin fortwirken. Auf Grundlage empirisch-qualitativer Analysen macht die Studie einerseits deutlich, wie ungleiche Geschlechterverhältnisse, struktureller Rassismus und reproduktive staatliche Gewalt unter einem autoritären Regime zusammenwirken. Andererseits wird deutlich, dass eine aktive und vernetzte Zivilgesellschaft konstitutiv für eine demokratische Gesellschaft ist – ein innovativer Beitrag zu einem Thema von internationaler Relevanz, welches in Zeiten globaler politischer und gesellschaftlicher Herausforderungen von höchster Aktualität ist