University of Siegen

Publikations- und Dokumentenserver der Universitätsbibliothek Siegen
Not a member yet
    2043 research outputs found

    Ultradünne Zinnhalogenid-Perowskitfilme auf Gold-Einkristallen

    No full text
    This thesis investigates the growth, structural characteristics, and stability of ultrathin films of the lead-free perovskite CsSnBr3 (cesium tin bromide) on Au(111) and Au(100) substrates under ultra-high vacuum (UHV) conditions. Motivated by the need for environmentally friendly alternatives to lead-based perovskites in optoelectronic applications, this work employs a combination of scanning tunneling microscopy (STM), low-energy electron diffraction (LEED), and X-ray photoelectron spectroscopy (XPS) to explore the fundamental properties of CsSnBr3 films. The study examines the behavior of precursor molecules, CsBr and SnBr2, on both gold surfaces, revealing distinct growth patterns and the influence of substrate symmetry on adsorption and subsequent film formation. Co-deposition of these precursors leads to the formation of CsSnBr3 films, the structure of which is analyzed in detail. A tetramer phase on the (001) surface of CsSnBr3 is confirmed through atomically resolved STM imaging and supported by density functional theory (DFT) calculations. Furthermore, XPS analysis provides insights into the chemical composition of the films and elucidates the degradation mechanisms upon exposure to air, highlighting the critical role of Sn4+ formation in the degradation process. The findings demonstrate that UHV-grown CsSnBr3 films initially exhibit a favorable Sn2+ oxidation state but degrade rapidly to include Sn4+ states upon air exposure, underscoring the importance of encapsulation for maintaining stability. This research advances the understanding of lead-free perovskite film growth and stability while offering valuable insights for the development of stable, efficient, and environmentally friendly optoelectronic devices.Diese Arbeit untersucht das Wachstum, die strukturellen Eigenschaften und die Stabilität ultradünner Schichten des bleifreien Perowskits CsSnBr3 (Cäsium-Zinn-Bromid) auf Au(111)- und Au(100)-Substraten unter Ultrahochvakuum (UHV)-Bedingungen. Motiviert durch den Bedarf an umweltfreundlichen Alternativen zu bleibasierten Perowskiten in optoelektronischen Anwendungen, kombiniert diese Arbeit Rastertunnelmikroskopie (STM), Niederenergie - Elektronenbeugung (LEED) und Röntgenphotoelektronenspektroskopie (XPS), um die grundlegenden Eigenschaften von CsSnBr3-Filmen zu erforschen. Die Studie beginnt mit der Untersuchung des Verhaltens der Vorläufermoleküle CsBr und SnBr2 auf beiden Goldoberflächen und zeigt unterschiedliche Wachstumsmuster sowie den Einfluss der Substratsymmetrie auf deren Adsorption und anschließende Filmbildung. Die Co-Deposition dieser Moleküle führt zur Bildung von CsSnBr3-Filmen, deren Struktur im Detail analysiert wird. Insbesondere wird die Bildung einer Tetramerphase auf der (001)-Oberfläche von CsSnBr3 durch atomar aufgelöste STM-Aufnahmen bestätigt und durch Dichtefunktionaltheorie (DFT)-Berechnungen gestützt. Darüber hinaus liefert die XPS-Analyse Einblicke in die chemische Zusammensetzung der Filme und klärt die Abbaumechanismen bei Luftkontakt auf, wobei die entscheidende Rolle der Sn4+-Bildung im Abbauprozess hervorgehoben wird. Die Ergebnisse zeigen, dass UHV-gewachsene CsSnBr3-Filme anfänglich einen günstigen Sn2+-Oxidationszustand aufweisen, aber bei Luftkontakt schnell zu Sn4+-Zuständen abgebaut werden, was die Bedeutung der Verkapselung zur Aufrechterhaltung der Stabilität unterstreicht. Diese Forschung trägt nicht nur zum Verständnis des Wachstums und der Stabilität bleifreier Perowskitfilme bei, sondern liefert auch wertvolle Erkenntnisse für die Entwicklung stabiler, effizienter und umweltfreundlicher optoelektronischer Bauelemente

    Integration von Lernkontext und Erklärbarkeit in Bildungsempfehlungssystemen unter Verwendung des Markov-Entscheidungsprozesses über Wissensgraphen

    No full text
    Human learning is a complex and multi-dimensional process, governed by a wide range of factors that describe the individual differences between learners, and the contexts in which learning happens. Since these differences influence how learners respond to the learning content and activities, it is essential for an effective learning process to consider these factors when generating learning recommendations. Context-aware recommender systems (CARS) have offered a promising solution for tailoring learning experiences to the specific learning contexts. However, existing CARS often fall short in comprehensively integrating complex contextual data into their reasoning. Moreover, complex CARS face challenges in providing transparent and explainable recommendations to learners and educators, especially when they have no technical background, which hinders CARS’s effectiveness and acceptance among these educational stakeholders. This thesis addresses these challenges by developing a novel method for building Context-Aware Recommendations and Explainability through Knowledge Graphs (CARExKG). Structurally, the CARExKG method employs knowledge graphs to represent contextual learning factors and their interdependencies, capturing the dynamic interplay between various contextual variables in complex learning settings. Algorithmically, CARExKG employs a Markov decision process over knowledge graphs, featuring a context-sensitive reward function tailored to enable the RS to generate contextualized learning paths across various learning settings. In order to ensure human oversight, reduce stakeholders’ resistance to recommendations, and encourage collaborative human-AI decision-making, CARExKG further incorporates an explainability framework, utilizing large language models and expert-input from pedagogy specialists, to generate user-centric explanations, supporting learner’s understanding of the reasoning behind generating the recommended path, and enhancing their decision-making ability and ownership of their educational journey. To evaluate the proposed method, a set of experiments was designed to measure the effectiveness of the knowledge graphs, the recommendation algorithm, and the explainability framework. CARExKG is then evaluated as a complete system through a real-world user study with nursing staff in two elderly homes, where a complex learning scenario was constructed to mimic the multi-dimensional challenges they face in their profession. Evaluation results have demonstrated the effectiveness of the proposed approach for constructing the knowledge graph and the reasoning of the RS. Results also show the ability of the CARExKG method to improve learner satisfaction and outcomes in vocational education and training settings. Experiment findings underscore the importance of the interdisciplinary approach followed in designing CARExKG, which combines artificial intelligence, educational technology, and pedagogy to create adaptive, explainable, and learner-centered educational tools.Menschliches Lernen ist ein komplexer und multidimensionaler Prozess, der von einem breiten Spektrum von Faktoren bestimmt wird, die die individuellen Unterschiede zwischen den Lernenden und die Kontexte, in denen Lernen stattfindet, beschreiben. Da diese Unterschiede Einfluss darauf haben, wie die Lernenden auf die Lerninhalte und -aktivitäten reagieren, ist es unerlässlich, diese Faktoren bei der Erstellung von Lernempfehlungen zu berücksichtigen. Context Aware Recommender Systems (CARS) bieten eine vielversprechende Lösung für die Anpassung von Lernerfahrungen an den jeweiligen Lernkontext. Die bestehenden CARS sind jedoch oft nicht fähig, komplexe kontextbezogene Daten umfassend in ihre Überlegungen einzubeziehen. Darüber hinaus stehen komplexe CARS vor der Herausforderung, transparente und erklärbare Empfehlungen zu bieten, vor allem, wenn Lernenden und Lehrenden keinen technischen Hintergrund haben, was die Effektivität und Akzeptanz von CARS für sie beeinträchtigt. Diese Dissertation befasst sich mit diesen Herausforderungen, indem sie eine neuartige Methode zur Erstellung kontextbezogener Empfehlungen und Erklärbarkeit durch Wissensgraphen (CARExKG) entwickelt. Strukturell verwendet CARExKG Wissensgraphen, um kontextuelle Lernfaktoren und deren Abhängigkeiten darzustellen und das dynamische Zusammenspiel zwischen verschiedenen kontextuellen Variablen in komplexen Lernumgebungen zu erfassen. Algorithmisch verwendet CARExKG einen Markov-Entscheidungsprozess über die Wissensgraphen, mit einem speziellen Design einer kontextsensitiven Reward-Funktion, die es dem RS ermöglicht, kontextualisierte Lernpfade in verschiedenen Lernumgebungen zu generieren. Um die menschliche Kontrolle zu gewährleisten, den Widerstand der Beteiligten gegenüber den Empfehlungen zu verringern und die kollaborative Mensch-KI-Entscheidungsfindung zu fördern, beinhaltet CARExKG darüber hinaus ein Erklärungskonzept, das große Sprachmodelle und den Experteninput von Pädagogen nutzt, um nutzerzentrierte Erklärungen zu generieren, die das Verständnis der Lernenden für die Argumentation hinter der Generierung des empfohlenen Pfads unterstützen und ihre Entscheidungsfähigkeit und Eigenverantwortung für ihre Bildungsreise verbessern. Um CARExKG zu evaluieren, wurde eine Reihe von Experimenten entwickelt, um die Effektivität der Wissensgraphen, des Empfehlungsalgorithmus und des Erklärbarkeitssystems zu messen. CARExKG wurde dann als komplettes System durch eine Nutzerstudie mit Pflegepersonal in zwei Altenheimen evaluiert, in der ein komplexes Lernszenario konstruiert wurde, um die multidimensionalen Herausforderungen, mit denen sie in ihrem Beruf konfrontiert sind, zu imitieren. Die Evaluierungsergebnisse haben die Effektivität des vorgeschlagenen Ansatzes für die Konstruktion des Wissensgraphen und die Logik des RS gezeigt. Die Ergebnisse zeigen auch die Fähigkeit der CARExKG-Methode, die Zufriedenheit der Lernenden und die Ergebnisse in der beruflichen Weiterbildung zu verbessern

    Studien zu Memristoren und Fehlanpassungen : Schaltverhalten, Herstellung, optische Anwendung und Toleranz in FPUT-Systemen

    No full text
    Inspired by biological neural networks, neuromorphic computing has emerged as a promising alternative to conventional architectures, which increasingly struggle to meet the needs of low power consumption, parallel processing, and real-time operation. The realisation of neuromorphic systems requires new types of devices, which have the capability of simultaneously storing and processing information. It is, however, not easily available from conventional Complementary Metal-Oxide-Semiconductor (CMOS)-based technologies. Memristor is a promising candidate for such systems, owing to its synapse-like, tunable resistance states and compatibility with CMOS technology. This cumulative dissertation investigates the fabrication, characterisation, and integration of memristor for neuromorphic and optical applications. For practical integration, the materials and fabrication techniques have been selected to be compatible with standard CMOS technology. The work first focuses on understanding the bidirectional switching behaviour of individual redox-based memristors and examines how the dielectric layer thickness influences device performance. Following these, a experimental realisation of an intelligent photodetector is achieved, which integrates a photodiode with a memristor to enable adaptive passive quenching. Meanwhile, a CMOS-compatible photodiode operating in Geiger mode is also designed for this purpose. Furthermore, this dissertation explores the Fermi–Pasta–Ulam–Tsingou (FPUT) system under mismatched condition, thereby addressing the theoretical foundations for building a nonlinear system with mismatch. Tolerance effects are analysed using Monte Carlo simulations, and a method is proposed to recover the energy recurrence behaviour despite such variability. This dissertation includes five peer-reviewed journal and conference papers that combine numerical and experimental research. Through the co-design of novel devices and non-linear systems, these works collectively lay the foundation for the future development of neuromorphic systems

    CliCFPGA: Kollaborationsplattform für komponentenbasierten Entwurf und Verifikation von KI-basierten Systemen mit FPGAs

    No full text
    The increasing demand for real-time data processing has propelled Field Programmable Gate Arrays (FPGAs) as prominent programmable accelerators in modern computing systems, as they often deliver substantial performance gains compared to microprocessors and graphics processing units (GPUs), while also consuming less power. FPGAs are now employed across a wide range of applications and are considered a potential solution to the challenges posed by the deceleration of Moore's Law in chip design. This rise of FPGAs in diverse applications has intensified the need to tailor FPGA design and verification platforms. However, FPGA development environments come with several challenges, such as requiring high-end computers for faster hardware compilation and managing multiple versions of FPGA computer-aided design (CAD) tools, which can create conflicts across different projects. In addition, the existing tools and platforms lack support for modularity, collaboration, and accessibility for novice users, offering no resources like hardware accelerator intellectual property (IP) libraries or tools enhanced by large language models (LLMs). Furthermore, the cost of large-scale FPGAs remains prohibitive for many individuals and institutions, limiting widespread FPGA development across various devices and application domains. To alleviate these challenges, this thesis proposes CliCFPGA, a flexible and scalable FPGA design, verification, and prototyping platform to simplify education and development by reducing hardware costs through the shared use of high-performance servers and consolidating various FPGA CAD tools onto a single platform. CliCFPGA leverages the FPGA design and verification flow through a collaborative workspace for FPGA design, verification, and prototyping. This collaborative workspace provides full access to the peripherals of FPGA boards, enabling real-time debugging and simultaneous testing of multiple distinct FPGA boards. On the other hand, to further streamline the Artificial Intelligence (AI)-based hardware accelerator design and verification for FPGAs, CliCFPGA offers an IP library module to provide a pre-verified library of high-performance hardware accelerator IP cores, facilitating rapid and secure FPGA prototyping for non-professional users and beginners. The library encompasses accelerator IP cores for various application domains, ensuring a fast and reliable design and verification process. In addition, CliCFPGA also offers an LLM-assisted tool that can assist in generating and verifying the hardware description language (HDL). This tool enhances productivity by automating complex HDL coding and error detection tasks, significantly reducing FPGA design and verification time. The evaluation of the CliCFPGA platform effectively automates FPGA design and verification processes. A comprehensive evaluation has been conducted to evaluate the performance of the CliCFPGA platform, incorporating both qualitative and quantitative data to assess its effectiveness in meeting educational and research objectives. Users have expressed increased satisfaction with the platform's ease of use and ability to facilitate collaboration through the CliCFPGA collaborative workspace with real-time feedback. A survey evaluating all the CliCFPGA modules, including software and hardware facilities of the CliCFPGA collaborative workspace, IP library, and LLM-assisted design features, revealed high user satisfaction. Results show that users can save up to 3x the time required to design and verify different applications compared to traditional platforms, highlighting the platform's efficiency. These findings suggest that CliCFPGA significantly enhances the development experience while effectively automating FPGA design processes, supporting educational, industrial, and research needs without compromising performance.Die steigende Nachfrage nach Datenverarbeitung in Echtzeit hat dazu geführt, dass Field Programmable Gate Arrays (FPGAS) zu den wichtigsten programmierbaren Beschleunigern in modernen Computersystemen geworden sind, da sie im Vergleich zu Mikroprozessoren und Grafikprozessoren (GPUs) oft erhebliche Leistungssteigerungen bieten und gleichzeitig weniger Strom verbrauchen. FPGAs werden heute in einem breiten Spektrum von Anwendungen eingesetzt und gelten als potenzielle Lösung für die Herausforderungen, die sich aus der Verlangsamung des Mooreschen Gesetzes beim Chipdesign ergeben. Dieser Anstieg von FPGAs in verschiedenen Anwendungen hat den Bedarf an maßgeschneiderten FPGA-Design- und Verifikationsplattformen verstärkt. FPGA-Entwicklungsumgebungen sind jedoch mit verschiedenen Herausforderungen verbunden, wie z. B. dem Bedarf an High-End-Computern für eine schnellere Hardwarekompilierung und der Verwaltung mehrerer Versionen von FPGA-CAD-Tools (Computer-Aided Design), was zu Konflikten zwischen den verschiedenen Projektversionen führen kann. Außerdem fehlt es den vorhandenen Tools und Plattformen an Unterstützung für Modularität, Zusammenarbeit und Zugänglichkeit für unerfahrene Benutzer, da sie keine Ressourcen wie Bibliotheken für Intellectual Property (IP) von Hardwarebeschleunigern oder durch Large Language Models (LLMs) erweiterte Tools bieten. Darüber hinaus ist die Anschaffung großer FPGAs für viele Einzelpersonen und Institutionen nach wie vor unerschwinglich, was die weit verbreitete FPGA-Entwicklung in verschiedenen Geräten und Anwendungsbereichen einschränkt. Um diese Herausforderungen zu bewältigen, schlägt diese Arbeit CliCFPGA vor, eine flexible und skalierbare FPGA-Design-, Verifikations- und Prototyping-Plattform, die Ausbildung und Entwicklung vereinfacht, indem sie Hardwarekosten durch die gemeinsame Nutzung von Hochleistungsservern reduziert und verschiedene FPGA-CAD-Tools auf einer einzigen Plattform konsolidiert. CliCFPGA nutzt den FPGA-Design- und Verifikationsfluss durch einen kollaborativen Arbeitsbereich für FPGA-Design, -Verifikation und -Prototyping. Dieser kollaborative Arbeitsbereich bietet vollen Zugriff auf die Peripherie von FPGA-Boards und ermöglicht Debugging in Echtzeit und gleichzeitiges Testen mehrerer unterschiedlicher FPGA-Boards. Um das Design und die Verifikation von Hardware-Beschleunigern für FPGAs, die auf künstlicher Intelligenz (KI) basieren, weiter zu vereinfachen, bietet CliCFPGA ein IP-Bibliotheksmodul an, das eine vorverifizierte Bibliothek von Hochleistungs-Hardware-Beschleuniger-IP-Cores bereitstellt und so ein schnelles und sicheres FPGA-Prototyping für nicht-professionelle Anwender und Anfänger ermöglicht. Die Bibliothek umfasst Beschleuniger-IP-Cores für verschiedene Anwendungsbereiche und gewährleistet einen schnellen und zuverlässigen Design- und Verifikationsprozess. Darüber hinaus bietet CliCFPGA ein LLM-gestütztes Tool, das bei der Generierung und Verifizierung der Hardwarebeschreibungssprache (HDL) helfen kann. Dieses Tool steigert die Produktivität, indem es komplexe HDL-Codierungs- und Fehlererkennungsaufgaben automatisiert und so die Zeit für FPGA-Design und -Verifikation erheblich reduziert. Die Evaluierung der CliCFPGA-Plattform automatisiert FPGA-Entwurfs- und Verifikationsprozesse auf effektive Weise. Es wurde eine umfassende Evaluierung durchgeführt, um die Leistung der CliCFPGA-Plattform zu bewerten. Dabei wurden sowohl qualitative als auch quantitative Daten einbezogen, um die Effektivität der Plattform bei der Erfüllung von Ausbildungs- und Forschungszielen zu beurteilen. Die Benutzer äußerten sich sehr zufrieden mit der Benutzerfreundlichkeit der Plattform und der Möglichkeit, die Zusammenarbeit durch den CliCFPGA Collaborative Workspace mit Echtzeit-Feedback zu erleichtern. Eine Umfrage zur Bewertung aller CliCFPGA-Module, einschließlich der Software- und Hardwareeinrichtungen des CliCFPGA Collaborative Workspace, der IP-Bibliothek und der LLM-unterstützten Entwurfsfunktionen, ergab eine hohe Benutzerzufriedenheit. Die Ergebnisse zeigen, dass die Benutzer im Vergleich zu herkömmlichen Plattformen bis zu dreimal so viel Zeit für den Entwurf und die Verifizierung verschiedener Anwendungen einsparen können, was die Effizienz der Plattform unterstreicht. Diese Ergebnisse deuten darauf hin, dass CliCFPGA die Entwicklungserfahrung signifikant verbessert und gleichzeitig FPGA-Designprozesse effektiv automatisiert, um die Bedürfnisse von Ausbildung, Industrie und Forschung ohne Leistungseinbußen zu unterstützen

    Mental time travelling with Kant

    No full text
    Die Fähigkeit des mentalen Zeitreisens ist für uns völlig alltäglich. Selten bis nie reflektieren wir im Alltag darüber, wie viel Erinnern und wie viel Imaginieren wir im Verlauf eines Tages erleben, wie geprägt unser gegenwärtiges Denken und Handeln von vergangenen Erfahrungen und zukünftigen Zielen ist. Würde aber diese Fähigkeit Schaden nehmen, wie es z. B. im Fall von Demenzerkrankungen eintreten kann oder sogar wegfallen, stellt sich die Frage: Wer wären wir ohne unsere Erinnerungen und ohne unsere Wünsche, Erwartungen und Ziele? Über mentales Zeitreisen nachzudenken bedeutet also, über eine Fähigkeit nachzudenken, die uns Menschen als Menschen ausmacht. Kant hat allerdings weder viel über Erinnerungen und Imaginationen geschrieben, noch hat er die Psychologie als Wissenschaft gesehen. Indem sich auf die rekonstruierte Wahrnehmungstheorie von Kant bezogen wird und die transzendentalphilosophische Subjektivitätstheorie, wie sie von Gerold Prauss (1990 ff.) entwickelt wurde, zu Grunde gelegt wird, kann Kant und kantisches Vokabular auch in einer modernen Debatte über mentales Zeitreisen herangezogen werden. Kants Wahrnehmungstheorie muss dafür zunächst ergänzt werden, um die Komponenten des Vergangenen wie auch des Zukünftigen. Diese Ergänzung ist genau genommen eine Weiterentwicklung der kantischen Theorie, da sie empirische Befunde ernst nimmt und diese, mittels kantischem Vokabular, aufnimmt. Die Art und Weise, wie wir Erinnerungen und Imaginationen erzeugen, ist dieselbe. Wir benötigen bei beiden Akten produktive Einbildungskraft, um eine andere Zeitform als die der Gegenwart zu erzielen. Und wir benötigen bei beiden Akten reproduktive Einbildungskraft, um uns ein Objekt/ein Ereignis gegenständlich zu machen. Episodisches Erinnern und Imaginieren bedeutet, dass es um Ereignisse meiner Vergangenheit und Zukunft geht und nicht um die von irgendjemandem. Ausschlaggebend dafür, dass ich eine Erinnerung bzw. eine Imagination als meine annehme, ist mein Bewusstsein: als Selbstverwirklichungs- wie auch Fremdverwirklichungsbewusstsein (Friebe 2005) in der ursprünglichen Wahrnehmung, als Fremd- wie auch Selbstverzeitlichungsbewusstsein in der Erinnerung und Imagination. Letzteres kann nur aktiviert werden, wenn es überhaupt eine Erfahrung gibt, auf die ich mich beziehen kann, von der ich etwas ableiten kann – ob als Erinnerung oder als Imagination. Beide Akte beruhen auf der Fähigkeit eines Subjekts, reflektieren zu können. Damit ist mentales Zeitreisen zunächst nur erfahrenen Subjekten zugänglich, die diese Akte bewusst anstreben. Allerdings sind Erinnerungen in einem höheren Maße irrtumsanfällig. Die in dieser Arbeit beschriebenen Irrtumsmöglichkeiten zeigen daher auch die Unterschiede zwischen Erinnern und Imaginieren auf. Diese Unterschiede können weitere Perspektiven in die Debatte um mentales Zeitreisen einbringen, die noch stark von zwei gegensätzlichen Theorien beherrscht wird: Kausaltheorien und Simulationstheorien. Die erweiterte Subjektivitätstheorie erweist sich als eine hybride Theorie.The ability to mentally travel in time is something we take for granted every day. In everyday life, we rarely or never reflect on how much remembering and how much imagining we experience in the course of a day, or on how our current thoughts and actions are shaped by past experiences and future goals. However, if this ability were damaged or even disappeared, as can happen in the case of dementia, for example, the question arises: who would we be without our memories and without our wishes, expectations, and goals? Therefore, thinking about mental time travel means thinking about an ability that defines us as human beings. However, Kant did not write much about memories and imagination, nor did he consider psychology to be a science. By referring to Kant's reconstructed theory of perception and using the transcendental philosophical theory of subjectivity (transzendentale Subjektivitätstheorie) as developed by Gerold Prauss (1990 ff.) allows us to incorporate Kant and Kantian vocabulary into a modern debate on mental time travel. Kant's theory of perception must first be extended to include the components of the past and the future. Strictly speaking, this addition is a further development of Kant's theory, as it acknowledges and incorporates empirical findings using Kantian vocabulary. The way in which we generate memories and imagination is basically the same. We need productive imagination (produktive Einbildungskraft) in both acts in order to achieve a time frame other than the present. We also need reproductive imagination (reproduktive Einbildungskraft) for both processes in order, to represent an object or event. Episodic remembering and imagination are about events in my past and future, not anyone else's. The decisive factor in my accepting of a memory or an imagination as my own is my consciousness. Based on a form of my self-awareness that is considered actual as well as the awareness that others (objects, events...) are actual (Selbst- / Fremdverwirklichungsbewusstsein, Friebe 2005) in the original perception, my remembering and imaging counts as a form of my self-awareness that can place itself and others in different times (Selbst- / Fremdverzeitlichungsbewusstsein). The latter can only be activated if there is any experience at all to which I can refer, from which I can derive something - whether as a memory or an imagination. Both acts are based on the subject's ability to reflect. This means that mental time travelling is initially only accessible to experienced individuals who consciously strive to perform these acts. However, memories are more prone to error. The possibilities for error described in this paper therefore also highlight the differences between remembering and imagining. These differences can provide new insights into the ongoing debate on mental time travel, which is currently dominated by two opposing theories: causal theories and simulation theories. The extended Kantian theory is a hybrid of the two

    Automatisierung von Empfehlungssystemen: Fortschritte bei Algorithmusauswahl, Bewertung und Nachhaltigkeit

    No full text
    The rapid digitalization of the information age has led to challenges such as information overload, underscoring the critical role of Recommender Systems (RecSys) in organizing and delivering relevant content. Despite their ubiquity, the development of RecSys remains resource-intensive and labor-intensive. Additionally, the environmental impact of RecSys has emerged as a critical yet underexplored concern as modern approaches increasingly employ resource-intensive architectures. The field of Automated Machine Learning (AutoML) has demonstrated significant success in streamlining model development for general machine learning tasks, lowering the barrier of entry for researchers and practitioners by reducing necessary manual labor and expertise while increasing performance. Motivated by their advancements, we investigate the transfer of AutoML principles to RecSys in the framework of Automated Recommender Systems (AutoRecSys) in this dissertation. We focus on solving the automated algorithm selection problem, due to its high relevance for efficient RecSys modeling, and address significant optimization confounders in AutoRecSys. We propose an algorithm selection framework that addresses dataset limitations through community-contributed metadata while offloading computationally intensive meta-learning tasks to server-side components for efficient client-side deployment. Additionally, we provide the first analysis of algorithm selection for ranking prediction tasks with implicit feedback datasets, showing the correlation with ground-truth performance for traditional and AutoML-based meta-models. We quantify the impact of randomness during data splitting, showing that it leads to significant performance deviations unless mitigated through repeated experiments or cross-validation. Furthermore, we analyze the suitability of top-N metrics for optimization, showing that their use in validation does not introduce confounding effects in RecSys evaluation. This reinforces the reliability of conventional evaluation methodologies. Beyond automation and evaluation concerns, we conduct the first comprehensive investigation of the environmental impact of RecSys experiments. We reveal that modern deep learning-based papers emit 42 times more CO2 equivalents than papers employing traditional approaches. Furthermore, we introduce a software tool for measuring and reporting energy consumption in RecSys experiments, enabling researchers to understand and report their environmental impact. Finally, we synthesize our contributions and demonstrate that automated algorithm selection can amortize its environmental impact through widespread adoption. To summarize, this dissertation lays the foundation for future research in algorithm selection through the AutoRecSys framework, further reduces uncertainties for RecSys evaluation methodologies, and helps the RecSys community to understand and address their environmental impact for a sustainable future.Die Digitalisierung des Informationszeitalters führt zu Herausforderungen wie Informationsüberflutung, was die kritische Funktion von Empfehlungsdiensten (engl. recommender systems, kurz RecSys) bei der Organisation und Bereitstellung relevanter Inhalte verdeutlicht. Trotz ihrer Allgegenwärtigkeit bleibt die Entwicklung von RecSys ressourcen- und arbeitsintensiv. Zudem ist die Umweltauswirkung von RecSys zu einem wichtigen, aber noch unzureichend erforschten Thema geworden, da moderne Ansätze zunehmend ressourcenintensive Architekturen verwenden. Das Forschungsgebiet des automated machine learning (AutoML) hat bedeutende Erfolge bei der Vereinfachung der Modellentwicklung gezeigt, indem es den manuellen Aufwand und erforderliche Expertise reduziert und dabei die Leistung steigert. Dadurch angeregt untersucht diese Dissertation die Übertragung von AutoML-Prinzipien auf RecSys im Rahmen von automated recommender systems (AutoRecSys). Da die Algorithmusauswahl für effizientes RecSys-Modellieren besonders relevant ist, konzentrieren wir uns auf die Lösung dieses Problems und behandeln dabei wesentliche Störfaktoren für die Optimierung in AutoRecSys. Wir schlagen ein Algorithmusauswahl-Framework vor, das Datenbegrenzungen durch gemeinschaftlich beigetragene Metadaten überwindet und rechenintensive Aufgaben an Serverkomponenten auslagert, um eine effiziente Bereitstellung zu ermöglichen. Zudem liefern wir die erste Analyse der Algorithmusauswahl für Ranglistenvorhersagen mit impliziten Feedback-Datensätzen und zeigen die Korrelation mit der Leistung für traditionelle und AutoML-basierte Meta-Modelle. Wir quantifizieren den Einfluss von Zufälligkeit bei der Datenaufteilung und zeigen, dass diese zu erheblichen Leistungsabweichungen führt, sofern sie nicht durch wiederholte Experimente oder Kreuzvalidierung behandelt wird. Zudem analysieren wir die Eignung von Top-N-Metriken für die Optimierung und zeigen, dass deren Verwendung keine verzerrenden Effekte in der RecSys-Evaluation bewirkt. Dies bekräftigt die Zuverlässigkeit konventioneller Evaluationsmethoden. Neben Automatisierungs- und Evaluationsfragen führen wir die erste Untersuchung der Umweltauswirkungen von RecSys-Experimenten durch. Wir zeigen, dass moderne Publikationen 42-mal mehr CO2-Äquivalente ausstoßen als Arbeiten mit traditionellen Ansätzen. Zudem stellen wir ein Software-Tool zur Messung des Energieverbrauchs von RecSys-Experimenten vor, das Forschenden ermöglicht, ihre Umweltauswirkungen zu verstehen und zu kommunizieren. Abschließend fassen wir unsere Beiträge zusammen und zeigen, dass automatisierte Algorithmusauswahl ihre Umweltbelastung durch breite Anwendung kompensieren kann. Zusammenfassend legt diese Dissertation die Grundlage für zukünftige Forschung zur Algorithmusauswahl mit AutoRecSys, reduziert Unsicherheiten in der Evaluation und unterstützt die Forschungsgemeinschaft beim Verstehen und Angehen der Umweltauswirkungen von RecSys-Experimenten für eine nachhaltige Zukunft

    Erziehungswissenschaft als Beruf. Ein Rechenschaftsbericht

    No full text
    Gerahmt von einer Paraphrase des Vortrags von Max Weber über »Wissenschaft als Beruf« gibt der Autor Rechenschaft über sein Berufsleben. Dazu zieht er eine Reihe von Texten heran, die als Stichprobe seiner Arbeiten dienen sollen: Rückblick auf die Dissertation und Folgeuntersuchungen zu August Herrmann Francke; Berichte über – meist inhaltsanalytische – Forschungsvorhaben; Beobachtungen und kritische Anmerkungen zum akademischen Unterricht; kritische Erörterungen zu seiner Wissenschaft. So beklagt er das, was er als »Ansatzologie« bezeichnet, und fragt, ob in seiner Wissenschaft noch Platz für die Kategorie des »Bösen« ist, und antwortet: »Tua res agitur« – »Auch deine Sache ist’s, wenn die Hütte des Nachbarn brennt.

    Kodierte Wellenformen für ein kollokiertes MIMO-Radar mit spärlicher Modellierung

    No full text
    Advanced Driver Assistance Systems (ADAS) for autonomous driving depend on precise environmental sensing to enable safe navigation, prevent collisions, and support reliable decision making. In real world scenarios, no single sensor can overcome all challenges. To address this, modern ADAS systems incorporate a combination of sensors, including cameras, LiDAR, ultrasound, and radar, each contributing unique strengths. Among these, radar is particularly valued for its robustness in adverse weather conditions, making it indispensable for reliable system performance. Specifically, collocatedMultiple InputMultiple Output (MIMO) radar systems are the most suitable choice for ADAS applications, offering a compact size, cost efficiency, and the ability to simultaneously provide spatial information, range, and velocity estimation. However, conventional automotive radars face significant challenges stemming from low resolution, which complicates the detection of closely spaced objects or targets. These limitations hinder the fusion of multisensor data for reliable ADAS functionality and restrict the development of fully autonomous capabilities. Traditional radar designs rely on uniformly spaced array configurations, inherently tying spatial resolution to aperture size and to the number of physical antenna elements. Additionally, existing waveform candidates often suffer from interference or elevated sidelobes, leading to scenarios with masking effects. Efforts to achieve higher resolution without sidelobe artifacts typically result in increased costs, greater data storage requirements, and higher computational complexity, reducing their practicality in real world applications. One notable aspect of MIMO radars is that the measured scene is inherently sparse. Sparsity refers to a property of signals or datasets where only a small number of elements (or features) carry significant information, while the rest are zero or near zero. This characteristic is fundamental to advanced signal processing methods like compressed sensing (CS), which enables high dimensional data to be represented and recovered using far fewermeasurements than traditionally required. While most studies emphasize exploiting sparsity in the scene domain, focusing on reconstructing relevant features in 2DMIMO scenes such as Range-Angle (RA) or Doppler-Angle (DA), sparsity in the signal domain often remains under explored. Signal domain sparsity leverages inherent redundancies in raw radar signals, enablingmore efficient data acquisition and reconstruction. By reducing these redundancies in signal acquisition, CSmethods can be appliedmore effectively. This approach opens the door to replacing conventional reconstruction blocks with CS based architectures, enabling the development of efficient CS-MIMO radars that optimize both sensing and computational efficiency. CS holds great promise for MIMO radar systems, enabling high resolution sensing with fewer measurements. However, its practical implementation faces key challenges, including reconstruction errors and computational load. Central to these issues is the sensing matrix, which links the radar system to the scene. High resolution requirements often necessitate large sensing matrices, increasing storage demands and computational complexity. Additionally, gridding errors caused by mismatches between the assumed model and real world scenes lead to reconstruction artifacts, false alarms, and reduced efficiency, further limiting reliability. Most studies address these challenges by designing algorithms that incorporate random projections into existing system models, providing incremental improvements in CS based reconstruction. While these methods enhance certain aspects of performance, they often rely on adapting conventional system designs rather than fundamentally rethinking the system architecture. In this study, we take a different approach by exploring a strategy that optimizes the radar system itself for improved CS performance. This involves replacing conventional signal processing frameworks with CS specific sensing matrices, designed to minimize gridding errors and computational demands. By treating system level parameters such as array geometry and waveform configurations as variables for optimization, we aimto create a radar architecture inherently suited for CS based processing, enhancing both reconstruction accuracy and systemefficiency. We propose a mutual coherence minimization approach by treating waveformand array configurations as key parameters for optimization. Two algorithms are introduced: one to independently optimize themodulating phase components of the coding sequences of the waveform configuration, and another to optimize the positional placement of array elements. Unlike conventional studies, which rely on the Frobenius norm ∥G−I∥F of the Gramian G of the sensing matrix and random sub sampling, we adopt a more aggressive strategy using the infinity norm|G−I∥∞. This approach, combined with a Temperature Guided Perturbationmethod termed Annealed Projections, effectively optimizes both waveformand array configurations. The resultant waveforms exhibit superior auto and cross correlation properties, achieving lower sidelobe levels compared to state of the art techniques. Similarly, the optimized array offers enhanced resolution and reconstruction performance, particularly within the CS formulation. Building on this, we further improve computational efficiency with a novel strategy called Sparse Annealed Projections (SAP). This weighted optimization technique imposes signal sparsity by exploiting redundancies in the system configuration. Using a priori information, SAP identifies the optimal number of spatial samples, reducing storage requirements associated with the sensing matrix size. This proposed methodology ensures seamless incorporation of CS into MIMO architectures, achieving reduced computational loads, compact storage requirements, and improved overall performance. To validate the proposedmethodology, we conducted experiments on synthetic data usingMonte Carlo simulations. The results demonstrate significant improvements in scene reconstruction performance, providing a proof of concept for designing sub Nyquist CDMA MIMO radar architectures for automotive imaging radar systems. This study establishes a robust framework for designing radar systems that balance high performance with computational efficiency, paving the way for advancements in ADAS and autonomous driving technologies.Fortschrittliche Fahrerassistenzsysteme (ADAS) für das autonome Fahren sind auf eine präzise Erfassung der Umgebung angewiesen, um eine sichere Navigation zu ermöglichen, Kollisionen zu vermeiden und eine zuverlässige Entscheidungsfindung zu unterstützen. In realen Szenarien kann kein einzelner Sensor alle Herausforderungen meistern. Deshalb setzen moderne ADAS-Systeme eine Kombination von Sensoren ein, darunter Kameras, LiDAR, Ultraschall und Radar, die alle ihre eigenen Stärken haben. Unter diesen wird das Radar besonders wegen seiner Robustheit bei ungünstigenWetterbedingungen geschätzt, was es für eine zuverlässige Systemleistung unverzichtbar macht. Insbesondere kollokierteMultiple-Input-Multiple-Output (MIMO)-Radarsysteme sind die besteWahl für ADAS-Anwendungen, da sie eine kompakte Größe, Kosteneffizienz und die Fähigkeit bieten, gleichzeitig räumliche Informationen, Reichweite und Geschwindigkeitsschätzung zu liefern. Herkömmliche Kfz-Radare stehen jedoch vor erheblichen Herausforderungen, die sich aus der geringen Auflösung ergeben, die die Erkennung von eng beieinander liegenden Objekten oder Zielen erschwert. Diese Einschränkungen behindern die Zusammenführung vonMultisensordaten für zuverlässige ADAS-Funktionen und schränken die Entwicklung vollständig autonomer Funktionen ein. Herkömmliche Radarkonzepte beruhen auf Array-Konfigurationen mit gleichmäßigen Abständen, bei denen die räumliche Auflösung an die Größe der Apertur und die Anzahl der physischen Antennenelemente gebunden ist. Darüber hinaus leiden bestehende Wellenformkandidaten oft unter Interferenzen oder erhöhten Nebenkeulen, was zu Szenarien mit Maskierungseffekten führt. Bemühungen, eine höhere Auflösung ohne Nebenkeulenartefakte zu erreichen, führen in der Regel zu höheren Kosten, größerem Datenspeicherbedarf und höherer Rechenkomplexität, was ihre Praxistauglichkeit in realen Anwendungen einschränkt. Ein bemerkenswerter Aspekt von MIMO-Radaren ist, dass die gemessene Szene von Natur aus spärlich ist. Spärlichkeit bezieht sich auf eine Eigenschaft von Signalen oder Datensätzen, bei denen nur eine kleine Anzahl von Elementen (oderMerkmalen) signifikante Informationen tragen, während der Rest null oder nahezu null ist. Diese Eigenschaft ist von grundlegender Bedeutung für fortschrittliche Signalverarbeitungsmethoden wie das Compressed Sensing (CS), das die Darstellung und Wiederherstellung hochdimensionaler Daten mit weitaus weniger Messungen als traditionell erforderlich ermöglicht. Während die meisten Studien die Ausnutzung der Sparsamkeit imSzenenbereich betonen und sich auf die Rekonstruktion relevanterMerkmale in 2D-MIMO-Szenen wie Range-Angle (RA) oder Doppler-Angle (DA) konzentrieren, bleibt die Sparsamkeit im Signalbereich oft unerforscht. Die Sparsamkeit im Signalbereich nutzt inhärente Redundanzen in Radar-Rohsignalen und ermöglicht eine effizientere Datenerfassung und -rekonstruktion. Durch die Reduzierung dieser Redundanzen bei der Signalerfassung können CS-Methoden effektiver eingesetzt werden. Dieser Ansatz eröffnet dieMöglichkeit, herkömmliche Rekonstruktionsblöcke durch CS-basierte Architekturen zu ersetzen und damit die Entwicklung effizienter CS-MIMO-Radare zu ermöglichen, die sowohl die Erfassungs- als auch die Berechnungseffizienz optimieren. CS ist ein vielversprechender Ansatz für MIMO-Radarsysteme, der eine hochauflösende Erfassung mit weniger Messungen ermöglicht. Die praktische Umsetzung steht jedoch vor großen Herausforderungen, darunter Rekonstruktionsfehler und Rechenaufwand. ImMittelpunkt dieser Probleme steht die Erfassungsmatrix, die das Radarsystem mit der Szene verbindet. Hohe Auflösungsanforderungen erfordern oft große Erfassungsmatrizen, was den Speicherbedarf und die Rechenkomplexität erhöht. Darüber hinaus führen Rasterfehler, die durch Unstimmigkeiten zwischen dem angenommenenModell und den realen Szenen verursacht werden, zu Rekonstruktionsartefakten, Fehlalarmen und verminderter Effizienz, was die Zuverlässigkeit weiter einschränkt. Die meisten Studien befassen sich mit diesen Herausforderungen, indem sie Algorithmen entwickeln, die zufällige Projektionen in bestehende Systemmodelle einbeziehen und so schrittweise Verbesserungen bei der CS-basierten Rekonstruktion ermöglichen. Diese Methoden verbessern zwar bestimmte Leistungsaspekte, beruhen aber oft auf der Anpassung konventioneller Systemdesigns, anstatt die Systemarchitektur grundlegend zu überdenken. In dieser Studie verfolgen wir einen anderen Ansatz, indem wir eine Strategie erforschen, die das Radarsystem selbst für eine verbesserte CS-Leistung optimiert. Dabei werden herkömmliche Signalverarbeitungssysteme durch CS-spezifische Abtastmatrizen ersetzt, die darauf ausgelegt sind, Gitterfehler und Rechenaufwand zu minimieren. Indem wir Parameter auf Systemebene wie Array-Geometrie und Wellenformkonfigurationen als Variablen für die Optimierung behandeln, wollen wir eine Radararchitektur schaffen, die von Natur aus für CS-basierte Verarbeitung geeignet ist und sowohl die Rekonstruktionsgenauigkeit als auch die Systemeffizienz verbessert. Wir schlagen einen Ansatz zur Minimierung der gegenseitigen Kohärenz vor, indem wir Wellenform- und Array-Konfigurationen als Schlüsselparameter für die Optimierung behandeln. Es werden zwei Algorithmen eingeführt: einer zur unabhängigen Optimierung der modulierenden Phasenkomponenten der Kodiersequenzen derWellenformkonfiguration und ein weiterer zur Optimierung der Positionsplatzierung der Array-Elemente. Im Gegensatz zu konventionellen Studien, die sich auf die Frobenius-Norm ∥G−I∥F der Gramian G der Abtastmatrix und zufällige Unterabtastung stützen, verfolgen wir eine aggressivere Strategie unter Verwendung der Unendlichkeitsnorm|G−I∥∞. Dieser Ansatz, kombiniert mit einer temperaturgeführten Störungsmethode, die als geglühte Projektionen bezeichnet wird, optimiert effektiv sowohl die Wellenform als auch die Array-Konfigurationen. Die resultierendenWellenformen weisen hervorragende Auto- und Kreuzkorrelationseigenschaften auf und erreichen im Vergleich zumStand der Technik geringereNebenkeulenwerte. In ähnlicher Weise bietet das optimierte Array eine verbesserte Auflösung und Rekonstruktionsleistung, insbesondere innerhalb der CS-Formulierung. Darauf aufbauend verbessern wir die Berechnungseffizienz mit einer neuen Strategie namens Sparse Annealed Projections (SAP). Dieses gewichtete Optimierungsverfahren sorgt für eine spärliche Signalverteilung, indem es Redundanzen in der Systemkonfiguration ausnutzt. Unter Verwendung von a priori Informationen identifiziert SAP die optimale Anzahl räumlicher Abtastungen, wodurch die mit der Größe der Abtastmatrix verbundenen Speicheranforderungen reduziert werden. Die vorgeschlageneMethodik gewährleistet die nahtlose Integration von CS inMIMO-Architekturen, wodurch eine geringere Rechenlast, kompaktere Speicheranforderungen und eine verbesserte Gesamtleistung erreicht werden. Zur Validierung der vorgeschlagenen Methodik haben wir Experimente mit synthetischen Daten unter Verwendung vonMonte-Carlo-Simulationen durchgeführt. Die Ergebnisse zeigen signifikante Verbesserungen in der Leistung der Szenenrekonstruktion und liefern einen Konzeptnachweis für die Entwicklung von CDMA-MIMORadararchitekturen mit Sub-Nyquist-Verfahren für bildgebende Radarsysteme in Fahrzeugen. Diese Studie schafft einen robusten Rahmen für die Entwicklung von Radarsystemen, die hohe Leistung und Recheneffizienz in Einklang bringen, und ebnet so denWeg für Fortschritte bei ADAS und autonomen Fahrtechnologien

    Komplotte und Konspirationen

    No full text
    Der Aufsatz entwickelt die These, dass wir es in Dan Browns „Sakrileg“ mit einer eigentümlichen Form von Mittelalterlichkeit und von Wissenschaftspopularisierung in Form eines Gegenwartsthrillers zu tun haben. Das Geheimnis um den Gral, das nicht von vielen oder von niemandem beachtet werden durfte, wird durch die katholische Kirche depopularisiert und dekanonisiert. Es entsteht ein Bild von Wissenschaft das gerade der Wieder-, nicht der Entzauberung der Welt dient. Dieser Wissenspopularisierung entspricht auf der Seite der ‚Wissensverarbeitungsmodi‘ die Figur des Autodidakten, der die Lektüre von Dan Browns Sakrileg als Erweckungserlebnis feiert und ihn so popularisiert. Die Verschwörungsthematik bei Dan Brown gehört zur erzählten Welt, weil wir es auf beiden Seiten – der Verschwörung des Opus Dei aus Sicht der Aufklärung und der Verschwörung der Prieuré de Sion aus Sicht des Katholizismus – mit der narrativen Inszenierung von ‚Halbwahrheiten‘ zu tun haben, die für die innere Kohärenz der Geschichte sorgen. Abschließend weitere Gedanken zur Präsenz des populären Wissens vom Mittelalter im in der Literaturgeschichte und im Gegenwartsroman entwickelt.The essay argues that Dan Brown’s The Da Vinci Code represents a unique blend of medievalism and the popularization of science, framed within the context of a modern thriller. The so-called “secret” of the Grail, which was once shrouded in mystery and reserved for a select few, is effectively depopularized and decanonized by the Catholic Church. In doing so, the novel presents science not as a force of disenchantment, but as a means of re-enchanting the world. This popularization of knowledge aligns with the figure of the autodidact, who finds in The Da Vinci Code an awakening experience, further contributing to the novel’s widespread appeal. The theme of conspiracy in The Da Vinci Code is integral to its narrative, with the conflict between the Opus Dei faction (from an Enlightenment perspective) and the Priory of Sion (from a Catholic standpoint) serving as the backdrop. Both conspiracies rely on the manipulation of “half-truths,” which help maintain the story’s internal coherence. Ultimately, the essay also explores the significance of medieval knowledge in contemporary literature, reflecting on how such themes are woven into the fabric of modern narrative and literary history

    Flexibility in SMEs – A Multiperspective Analysis of Creating Sustainable Competitive Advantage in Owner-Managed Family Businesses

    No full text
    Online-Version inklusive AnhangDeutsche Familienunternehmen sind das Rückgrat der deutschen Wirtschaft. Mit Innovationskraft und Verantwortungsbewusstsein führten die Familien hinter diesen Traditionsunternehmen Deutschland durch mehrere Krisen und Umbrüche. Trotz dieser enormen Bedeutung existieren bis heute Unklarheiten, weswegen Familienunternehmen eine derartige Beständigkeit an den Tag legen. Generationenübergreifende Schaffenskraft sowie eine einzigartige Unternehmenskultur heben Familienunternehmen von größeren und bekannteren Unternehmen ab. Dadurch, dass die Mehrheit der Familienunternehmen unbemerkt innerhalb von Nischen zur Marktführerschaft gelangt ist, bestehen Unklarheiten über das Erfolgsgeheimnis dieser Wirtschaftssphäre Deutschlands fort. Ziel dieser Dissertation ist es, herauszufinden, wie der nachhaltige Wettbewerbsvorteil von Familienunternehmen durch jene Person vorangetrieben wird, die im Zentrum des Unternehmens steht: der Eigentümer-Manager. Diese Überschneidung von Eigentum und Management ist das Alleinstellungsmerkmal des für den für Deutschland charakteristischen Mittelstand. Auf Basis einer multimethodischen Untersuchung wird analysiert, wie die Flexibilität des Eigentümer-Managers durch Gestaltung der Innovationskraft den Wettbewerbsvorteil beeinflusst. Der multiperspektivische Ansatz der Dissertation kommt dem holistischen Anspruch nach, sodass die Einzigartigkeit des Mittelstands ganzheitlich ergründet werden kann. Das Resultat der Untersuchung ist ein mehrstufiges Modell, welches veranschaulicht, dass der langfristige Erfolg des Familienunternehmens in vielfacher Hinsicht von der persönlichen Flexibilität des Eigentümer-Managers abhängt. Jedoch ist das Erfolgsgeheimnis nicht in Zahlen und Daten greifbar. Ein wichtiger Schlüssel ist die Intuition des Eigentümer-Managers, das oft hervorgehobene Bauchgefühl. In integrativer Weise werden die qualitativen und quantitativen Ergebnisse zusammengeführt, um einen tiefgründigen Ansatz zu schaffen, welcher nachvollziehbar macht, wie der Mittelstand über Jahrzehnte und Jahrhunderte hinweg Erfolgsgeschichten prägt, um die der Rest der Welt Deutschland beneidet.German family businesses are the backbone of the German economy. With exceptional innovative capacity and a strong sense of responsibility, the families behind these traditional enterprises have guided Germany through multiple crises and transitions. Despite their substantial significance, uncertainties still exist as to why family businesses exhibit such resilience. Their intergenerational drive and unique corporate culture distinguish them from larger, far more visible companies. Given that most family businesses achieve market leadership unnoticed within niches, the mystery surrounding the success of this critical sector of the German economy endures. The aim of this dissertation is to discover how the sustainable competitive advantage of family businesses is driven by the person at the heart of the company: the owner-manager. This intersection of ownership and management is the unique characteristic of Germany's typical so-called Mittelstand. Using a multi-method approach, this study examines how the flexibility of the owner-manager, through the development of innovation, influences competitive advantage. The owner-manager is where the corporate and family systems overlap. The multiperspective approach of this dissertation addresses a holistic aim, allowing a comprehensive exploration of the uniqueness of German family businesses. The result of the study is a multi-stage model demonstrating that the long-term success of family businesses depends in many ways on the personal flexibility of the owner-manager. However, the secret of success cannot be captured in numbers and data alone. A key factor is the owner-manager's intuition – the often-highlighted gut feeling. In an integrative manner, qualitative and quantitative results are combined to create an in-depth approach that explains how the German Mittelstand has crafted success stories over decades and centuries that the rest of the world admires

    62

    full texts

    2,043

    metadata records
    Updated in last 30 days.
    Publikations- und Dokumentenserver der Universitätsbibliothek Siegen is based in Germany
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇