publish.UP (Univ. Potsdam)
Not a member yet
    60194 research outputs found

    Navigieren von Datenbeschränkungen in der offenen Welt: Vollständigkeit, Ausgewogenheit und Korrektheit

    No full text
    The rapid development of deep learning across critical domains, ranging from autonomous transportation to healthcare diagnostics, from environmental monitoring to cybersecurity, underscores its capacity to drive societal progress. The fuel for this transformative wave is the symbiosis of a huge amount of data and computational resources. However, a significant hurdle in this evolution is the deficiency of comprehensively annotated datasets. With the advancement of Deep Learning (DL) and Machine Learning (ML) in recent years, the research focus has gradually shifted from the previously dominant closed-world scenarios to more realistic and challenging open-world scenarios. In this dissertation, I explore three of the most prevalent and significant data limitations in open world: Exhaustiveness, Balance, and Correctness. Exhaustiveness, encompassing all categories in the real world, is an inherently impossible goal given the vast expanse of human ignorance in numerous domains. Nonetheless, methods like Novel Class Discovery (NCD) and Generalized Category Discovery (GCD) have made strides by utilizing knowledge from labeled data to unearth new categories within unlabelled data in open world. However, our empirical studies reveal that supervised knowledge may not be universally beneficial, especially when there’s a significant semantic gap between the unlabeled and annotated datasets. To navigate this challenge, we propose a theoretically grounded metric, transfer flow, and a comprehensive benchmark with varying semantic similarities, aiming to precisely quantify the effectiveness of supervised knowledge under diverse conditions. Additionally, we have crafted two strategies that have demonstrably led to substantial improvements. Balance, aimed at securing an equitable sample distribution among all dataset categories, tackles the challenge of ensuring fair representation across classes, which is often skewed by the power law effect in real-world data. This imbalance or long-tailed nature of datasets often leads to model bias towards more frequently represented classes and poor generalization to less represented ones, thereby compromising the effectiveness of models in a variety of real-world applications. To combat the resulting long-tailed distribution, we initially proposed the imbalanced GCD method, which navigates the complex distribution of unlabeled real-world data. Subsequently, we developed a framework that integrates an Optimal Transport-based Expectation Maximization (Otem-IGCD) strategy with the objective of balanced class learning. This innovative method has proven its merit, marking a significant performance, thereby demonstrating its efficacy in overcoming the inherent challenges of data imbalance. Correctness, signifying the accuracy of dataset annotations, is critical for the accuracy and effectiveness of data-driven models. Achieving a fully corrected annotated dataset in the real world is challenging, requiring substantial investment and effort, with the end result still potentially marred by noisy labels. To address this, I introduce “Noisy NCD”, a practical setting that handles labeled data sampled from noisy datasets for NCD tasks. To address these challenges, I developed MKD-NCD, a strategy that utilizes mutual knowledge distillation to uncover new classes. Prior to this, we established SMKD, a mutual knowledge selection framework designed for closed-world environments. Together, SMKD and MKD-NCD have shown substantial success in navigating the complexities of noisy datasets. In this dissertation, I examine three principal data limitations in open-world scenarios: exhaustiveness, balance, and correctness. We address a fundamental problem associated with each limitation and provide effective solutions. Our research establishes a foundation for advancing Embodied Artificial Intelligence (EAI).Die schnelle Entwicklung des Deep Learning in wichtigen Bereichen, von autonomen Transportsystemen über medizinische Diagnostik bis hin zu Umweltüberwachung und Cybersicherheit, unterstreicht seine Fähigkeit, den gesellschaftlichen Fortschritt voranzutreiben. Der Treibstoff für diese transformative Welle ist die Symbiose aus riesigen Datenmengen und Rechenressourcen. Ein erhebliches Hindernis in dieser Entwicklung ist jedoch der Mangel an umfassend annotierten Datensätzen. Mit dem Fortschritt von Deep Learning (DL) und Machine Learning (ML) in den letzten Jahren hat sich der Forschungsschwerpunkt von den zuvor dominanten Closed-World-Szenarien zu realistischeren und herausfordernderen Open-World-Szenarien verschoben. In dieser Dissertation untersuchen wir drei der häufigsten und bedeutendsten Limitierungen von Daten in der OpenWorld: Vollständigkeit, Balance und Korrektheit. Vollständigkeit, die alle in der realenWelt vorhandenen Kategorien umfasst, ist angesichts der weiten Bereiche menschlicher Unkenntnis in zahlreichen Domänen ein inhärent unerreichbares Ziel. Dennoch haben Methoden wie Novel Class Discovery (NCD) und Generalized Category Discovery (GCD) Fortschritte gemacht, indem sieWissen aus annotierten Daten nutzen, um neue Kategorien innerhalb nicht annotierter Daten in der Open-World zu entdecken. Unsere empirischen Studien zeigen jedoch, dass Wissen aus annotierten Daten nicht universell vorteilhaft sein kann, insbesondere wenn eine signifikante semantische Lücke zwischen den annotierten und den nicht annotierten Datensätzen besteht. Um diese Herausforderung zu meistern, schlagen wir eine theoretisch fundierte Metrik, transfer flow, und einen umfassenden Benchmark mit variierenden semantischen Ähnlichkeiten vor, um die Wirksamkeit von überwachtem Wissen unter verschiedenen Bedingungen präzise zu quantifizieren. Zusätzlich haben wir zwei Strategien entwickelt, die nachweislich zu erheblichen Verbesserungen führen. Balance, zielt darauf ab eine gleichmäßige Verteilung der Samples unter allen Kategorien eines Datensatzes zu sichern, und dadurch eine faire Repräsentation über Klassen hinweg zu erreichen, welche oft durch den Power-Law-Effekt in realen Daten verzerrt ist. Diese Unausgewogenheit von Datensätzen führt oft zu einer Modellverzerrung zugunsten häufiger repräsentierter Klassen und schlechter Generalisierung zu weniger repräsentierten, was die Wirksamkeit von Modellen in einer Vielzahl von realen Anwendungen beeinträchtigt. Um die resultierende long-tail Verteilung zu bekämpfen, haben wir zunächst imbalanced GCD vorgeschlagen, welches es ermöglicht die komplexe Verteilung von nicht annotierten realen Daten zu navigieren. Anschließend haben wir Otem-IGCD entwickelt, ein Framework, das eine Optimal Transport-basierte Expectation Maximization-Strategie mit dem Ziel des ausgeglichenen Lernens aller Klassen verbindet. Diese innovative Methode hat ihre Effektivität bewiesen und eine signifikante Leistungssteigerung erreicht, was ihreWirksamkeit bei der Überwindung der inhärenten Herausforderungen des Datenungleichgewichts demonstriert. Korrektheit, was die Genauigkeit von Datensatzannotationen bezeichnet, ist entscheidend für die Genauigkeit und Wirksamkeit datengesteuerter Modelle. Einen vollständig korrekt annotierten Datensatz in der realen Welt zu erreichen ist herausfordernd und erfordert erhebliche Investitionen und Anstrengungen, wobei das Endergebnis dennoch potenziell durch fehlerhafte Annotationen beeinträchtigt sein könnte. Um dies anzugehen, führen wir „Noisy NCD“ ein, ein praktisches Scenario, welches sich mit ungenau annotierten Datensätzen für NCD-Aufgaben befasst. Um diesen Herausforderungen zu begegnen haben wir MKD-NCD entwickelt, eine Strategie, die gegenseitige Wissensdestillation nutzt, um neue Klassen zu entdecken. Zuvor haben wir SMKD etabliert, einen Rahmen für die Auswahl gegenseitigen Wissens, der für Closed-World-Umgebungen konzipiert wurde. Zusammen haben SMKD und MKD-NCD erheblichen Erfolg bei der Navigation durch die Komplexitäten ungenau annotierter Datensätze gezeigt. In dieser Dissertation untersuchen wir drei grundlegende Datenbeschränkungen in Open-World-Szenarien: Vollständigkeit, Balance und Korrektheit. Wir gehen jeweils auf ein fundamentales Problem ein, das mit jeder Beschränkung verbunden ist, und bieten wirksame Lösungen an. Unsere Forschung legt ein Fundament für die Weiterentwicklung der Embodied Künstlichen Intelligenz

    Optimierung von geometrischen Materialien

    No full text
    This thesis aims to investigate particular geometric materials with algebro-geometric constraints by combining physically meaningful geometric models with coarse discretizations and robust optimization routines. Ultimately, this makes the investigation of previously inaccessible, increasingly complex structures feasible. It is a promising endeavor to explore robust numerical optimization techniques in conjunction with geometric models since the main objective in many physical systems is the minimization of energy. Energies occur in various real-world scenarios, be it facet tension in soap film, intermolecular pair potentials, entropy, and the elastic energy occurring in a material's deformation. All these different types of energy are discussed in some form in this thesis. With primary applications in civil engineering and architecture, framework materials are used to investigate both a structure's rigidity and flexibility. A large class of geometric constraint systems can be modeled by framework materials. These structures are given by embedded graphs with their edges equipped with physical distance constraints. Via the Euclidean distance between points, their deformations provide a compelling connection between materials science and algebraic geometry. When adding elastic elements carrying intrinsic energy to the framework, a tensegrity framework is created, paradoxically stabilizing an otherwise flexible structure. This work considers two distinct applications of rigidity theory. Firstly, we generate random point processes in the square to experimentally verify asymptotic bounds for the local and global rigidity of the corresponding Gilbert frameworks. This leads to an enhanced understanding of what typically prevents a graph's unique realizability in the Euclidean plane. Secondly, the regular dodecahedron with edge length and coplanarity constraints is examined. This polytope is rigid and we can locally describe the deformation space induced by edge-contractions. To study material deformations effectively, a reliable and robust method for traversing the configuration space is essential. For this reason, the metric projection onto the constraint set is considered, matching geodesics up to second order. By using homotopy continuation to solve the implicit closest point problem, we can prove theoretical convergence guarantees. This method relies on a predictor-corrector scheme based on Newton's method with adaptive step sizes. As such, it prevents the jumping between connected components. The retraction map is applied in Riemannian optimization routines after constructing appropriate step sizes and directions of descent. These algorithms provide an invaluable tool for the optimization over smooth constraint sets, which has led to successful applications in dynamical systems, robotics, and computer vision. Analyzing the algorithm's performance on multiple examples, Newton's method is more efficient than the predictor-corrector scheme. Still, the theoretical guarantees justify the computational overhead of the predictor step in many cases. Lipid bilayers minimize surface tension, suggesting that they can be modeled as minimal surfaces using Riemannian geometry. These membranes occur in many organic settings. For ordered phases with crystalline symmetry, periodic bicontinuous minimal surfaces provide established models. Conversely, a minimal surface model for amorphous phases does not exist. To sample the space of minimal surfaces, we propose two models for generating disordered interfaces in combination with a topology-stabilized curvature optimization routine. We provide experimental evidence for why disordered surfaces can form by investigating two homogeneity measures on all generated surfaces. In addition, our work demonstrates the degree to which the curvature homogeneity of the cubic Gyroid surface is superior to its entropy-favored amorphous counterparts. It thereby contributes a general geometric result of relevance to bicontinuous structure formation in soft matter and biology across all lengthscales, relevant to both ordered and amorphous phases. Triply periodic cylinder packings constitute another geometric system that we investigate in this thesis. Some of these packings exhibit a cooperative unwinding mechanism, reminiscent of auxeticity. This property describes an expansive lateral response upon stretching a material in a fixed direction, making such structures a prime target for the design of metamaterials with targeted functionality, such as impact protection and filtration. We create a robust geometric model based on tensegrity frameworks for the configuration space of two filaments in tight, orthogonal contact. The corresponding elastic elements are constructed by assuming that the incompressible cylinders want to minimize their length. It is used to compute the deformation paths of two particular cylinder packings via Riemannian optimization and homotopy-based path-tracking. As a result, we show that both structures are auxetic by multiple definitions. Finally, we generalize the theory of weavings to surfaces. Constructing a robust model based on tensegrity frameworks to study weavings in curved space results in a nonlinear optimization problem. This tensegrity model is suitable for analyzing tangled weaves and complex contact geometries. Our model is most robust on surfaces where all points are geometrically identical. It accurately simulates the behavior of weavings on the sphere and the flat torus. In order to find the weave that energetically prefers the sphere the most, we deform the underlying surface into a spheroid. The energy landscape resulting from this deformation reveals that the more regular the weave, the more it prefers the sphere.Die vorliegende Dissertation hat das Ziel, bestimmte Materialien zu untersuchen, die algebro-geometrischen Nebenbedingungen genügen, indem physikalisch motivierte geometrische Modelle mit groben Diskretisierungen und robusten Optimierungsroutinen kombiniert werden. Dies ermöglicht die Betrachtung zuvor unzugänglicher, zunehmend komplexer Strukturen. Da viele physikalische Systeme als Hauptziel die Minimierung ihrer Energie haben, stellt die Kombination von robusten, numerischen Optimierungsmethoden und geometrischen Modellen einen vielversprechenden Ansatz dar. Energien treten in verschiedenen Szenarien auf, sei es als Oberflächenspannung in Seifenhäuten, intermolekulare Wechselwirkungen, Entropie oder als elastische Energie, die bei der Deformation eines Materials auftritt. Alle diese verschiedenen Energieformen werden in dieser Arbeit in der einen oder anderen Form behandelt. Fachwerke sind eingebettete Graphen, deren Kanten mit physikalischen Abstandsbedingungen ausgestattet sind. Mit primären Anwendungen im Bauingenieurwesen und in der Architektur werden sie verwendet, um sowohl die Starrheit als auch die Flexibilität einer Struktur zu untersuchen. Eine große Klasse von geometrischen Systemen kann durch Fachwerke modelliert werden. Mittels des Euklidischen Abstand zwischen Knoten bieten ihre Deformierungen eine überzeugende Verbindung zwischen Materialwissenschaft und algebraischer Geometrie. Durch das Hinzufügen von elastischen Elementen, die intrinsische Energie tragen, entsteht ein Tensegrity-Fachwerk, welches paradoxerweise eine ansonsten flexible Struktur stabilisiert. Diese Arbeit betrachtet zwei unterschiedliche Anwendungen der Starrheitstheorie. Erstens erzeugen wir zufällige Punktprozesse in einem Quadrat, um asymptotische Schranken für die lokale und globale Starrheit der entsprechenden Gilbert-Fachwerke experimentell zu überprüfen. Dies führt zu einem verbesserten Verständnis dafür, was typischerweise die eindeutige Realisierbarkeit eines Graphen in der Euklidischen Ebene verhindert. Zweitens werden konvexe Polytope mit Kantenlängen- und Koplanaritätsbedingungen untersucht. Wir zeigen dass der reguläre Dodekaeder starr ist und liefern eine lokale Beschreibung des zugehörigen, durch Kantenkontraktionen induzierten Deformationsraum. Um Materialverformungen effektiv zu untersuchen, ist eine zuverlässige und robuste Methode zur Durchquerung des Konfigurationsraums unerlässlich. Aus diesem Grund wird die metrische Projektion auf die Nebenbedingungen betrachtet, welche Geodäten bis zur zweiten Ordnung annähert. Durch die Verwendung einer Homotopie-Fortsetzung zur Lösung des impliziten Problems des nächstgelegenen Punkts können wir theoretische Konvergenzgarantien nachweisen. Die Homotopy-Fortsetzung basiert auf einem Prädiktor-Korrektor-Verfahren, welches seinerseits auf dem Newtonverfahren mit adaptiven Schrittweiten fußt. Dadurch wird das Springen zwischen Zusammenhangskomponenten verhindert. Durch die Berechnung von geeigneten Schrittweiten kann die Retraktionsabbildung in Riemannschen Optimierungsalgorithmen angewendet werden. Diese Algorithmen sind ein nützliches Werkzeug für die Optimierung unter glatten Nebenbedingungen, was bereits zur erfolgreichen Anwendungen in dynamischen Systemen, Robotik und Computer Vision geführt hat. Bei der Leistungsanalyse des Algorithmus anhand von mehreren Beispielen ist das Newtonverfahren effizienter als das Prädiktor-Korrektor-Verfahren. Dennoch rechtfertigen theoretische Garantien in vielen Fällen den rechnerischen Mehraufwand des Prädiktorschritts. Doppellipidschichten minimieren die Oberflächenspannung, was darauf hindeutet, dass sie als Minimalflächen mit Hilfe der Riemannschen Geometrie modelliert werden können. Diese Membranen kommen in vielen organischen Umgebungen vor. Für geordnete Phasen mit kristalliner Symmetrie bieten periodische bikontinuierliche Minimalflächen etablierte Modelle. Im Gegensatz dazu existiert ein Minimalflächenmodell für amorphe Phasen nicht. Wir schlagen in dieser Arbeit zwei Modelle zur Erzeugung ungeordneter Minimalflächen in Kombination mit einer topologiestabilisierten Krümmungsoptimierungsroutine vor. Experimentenn belegen wir, dass ungeordnete Flächen entstehen können, indem wir zwei Homogenitätsmaße auf allen erzeugten Flächen untersuchen. Darüber hinaus zeigt diese Arbeit, inwieweit die Krümmungshomogenität der kubischen Gyroid- und Diamantflächen ihren entropisch günstigeren amorphen Gegenstücken überlegen ist. Damit trägt sie zu einem allgemeinen geometrischen Verständnis sowohl für geordnete als auch für amorphe Phasen bei, was für die strukturelle Selbstassemblierung in weicher Materie und in organischen Systemen auf allen Längenskalen relevant ist. Dreifach periodische Zylinderpackungen stellen ein weiteres geometrisches System dar, das in dieser Arbeit untersucht wird. Einige dieser Packungen zeigen einen kooperativen Mechanismus, der an auxetische Materialien erinnert. Diese Materialeigenschaft beschreibt eine expansive laterale Reaktion beim Dehnen eines Materials in eine feste Richtung. Damit sind solche Strukturen besonders für das Design von Metamaterialien mit gezielter Funktionalität geeignet, wie z.B. Aufprallschutz und Filtration. Hierzu erstellen wir ein robustes geometrisches Modell basierend auf Tensegrity-Fachwerken für den Konfigurationsraum von zwei Filamenten inorthogonalem Kontakt. Die entsprechenden elastischen Elemente werden konstruiert, indem angenommen wird, dass die unelastischen Zylinder ihre Länge minimieren wollen. Dieses Modell wird verwendet, um die Deformationen von zwei bestimmten Zylinderpackungen über Riemannsche Optimierung und ein homotopie-basiertes Prädiktor-Korrektor-Verfahren zu approximieren. Als Ergebnis zeigen wir, dass beide Strukturen nach mehreren Definitionen auxetisch sind. Schließlich verallgemeinern wir die Theorie von Verflechtungen in der Ebene auf Flächen. Die Konstruktion eines robusten Modells basierend auf Tensegrity-Fachwerken zur Untersuchung von Verflechtungen im gekrümmten Raum führt zu einem nichtlinearen Optimierungsproblem. Dieses Tensegrity-Modell eignet sich zur Analyse von verwickelten Verflechtungen mit komplexen Kontaktgeometrien. Unser Modell ist auf der Sphäre und dem flachen Torus am robustesten, da dort alle Punkte geometrisch identisch sind. Um die Verflechtung zu finden, welche energetisch die Sphäre bevorzugen, deformieren wir die zugrunde liegende Fläche zu einem Sphäroid. Die dieser Deformation zugehörige Potentialhyperfläche zeigt, dass die Verflechtung die Sphäre umso mehr bevorzugt, je regelmäßiger sie ist

    Atmosphärische Flüsse in der Arktis: Physikalische Prozesse und Auswirkungen auf die Energiebilanz der Oberfläche

    No full text
    The Arctic climate system has changed rapidly in recent decades, with mean warming exceeding 2 K, making it the global warming hotspot. This phenomenon, known as Arctic Amplification, is driven by feedback mechanisms reacting to anthropogenic greenhouse effects, including cloud radiative effects, water vapor feedback and temperature feedbacks. Poleward moisture transport also shows changes correlating with Arctic warming. A substantial part of this transport occurs via so-called “Atmospheric Rivers” (ARs). These narrow atmospheric bands are often linked to extratropical cyclones, and transport moist and warm air into polar regions. ARs are linked to sea ice melt, precipitation in both the form of rain and snow, suggesting a warming effect on the Arctic surface. This thesis examines the influence of ARs on the Arctic surface energy budget (SEB) through case studies in early winter and spring, combining ERA5 reanalysis data (1979-2021) and regional simulations with the ICON model. Sensitivity studies explore how lateral moisture inflow affects the SEB, analyzed from Eulerian and Lagrangian perspectives for detailed process insights. Using the Guan-Waliser AR detection algorithm and ERA5, the climatological impacts of ARs on the surface fluxes, as well as moisture, cloud content, and skin temperatures are statistically quantified, with trends assessed between the "old Arctic" (1979-1999) and "new Arctic" (2000-2021). Two AR types are distinguished: moisture-dominated (“wet”) and wind-dominated (“windy”). Furthermore, the occurrence of ARs in the Atlantic Sector is linked to atmospheric circulation regimes. ARs generally warm the Arctic surface, with a strong dependence on the season and surface type. Winter ARs over open ocean show the strongest impact. Overall, the SEB anomalies are mostly dominated by turbulent flux anomalies (latent and sensible heat), i.e. near-surface temperatures and moisture. Radiative effects from increased liquid water and vapor lead to stronger terrestrial downward radiation. In summer, weaker turbulent flux anomalies and the additional cloud albedo effects lead to less strong SEB anomalies, sometimes even leading to less energy uptake of the surface. ARs significantly contribute to the seasonal mean SEB and skin temperatures, particularly in the winter North Atlantic Ocean (up to 20 W m⁻², 1 K). Moisture-dominated ARs induce stronger winter, autumn and spring surface energy gains than wind-dominated ones; and less energy gain in summer. This difference is due to higher liquid water paths, integrated vapor and related stronger radiative effects, and stronger latent heat flux anomalies. Over 45 years, sea-ice decline has influenced AR-related energy flux anomalies, especially by changes in the turbulent heat fluxes. Most ARs occur during the prevalence of the atmospheric circulation regimes NAO+ and SCAN, with SCAN being especially linked to ARs in the central Arctic. These two circulation regimes are further linked to most of the wind-dominated ARs. The regional confinement is especially pronounced in winter. Changes in occurrence frequency of the regimes over the last 45 years correspond qualitatively to AR occurrence changes.Das arktische Klimasystem hat sich in den letzten Jahrzehnten rapide verändert, mit einer mittleren Erwärmung von über 2 K, was es zum Hotspot der globalen Erwärmung macht. Dieses Phänomen, das als arktische Verstärkung bekannt ist, wird durch Rückkopplungsmechanismen angetrieben, die auf anthropogene Treibhauseffekte reagieren, einschließlich Wolkenstrahlungseffekte, Wasserdampfrückkopplung und Temperaturrückkopplung. Auch der polwärts gerichtete Feuchtigkeitstransport zeigt Veränderungen, die mit der Erwärmung der Arktis korrelieren. Ein wesentlicher Teil dieses Transports erfolgt über so genannte „Atmosphärische Flüsse“ (engl. „Atmospheric Rivers“, ARs). Diese schmalen Bänder sind oft mit außertropischen Wirbelstürmen verbunden und transportieren feuchte und warme Luft in die Polarregionen. ARs werden mit Meereisschmelze, sowie Niederschlägen in Form von Regen und Schnee in Verbindung gebracht, was auf eine Erwärmung der arktischen Oberfläche hindeutet. In dieser Arbeit wird der Einfluss von ARs auf die Energiebilanz der arktischen Oberfläche (engl. „Surface Energy Budget“, SEB) anhand von Fallstudien im frühen Winter und Frühling untersucht, wobei ERA5-Reanalysedaten (1979-2021) und regionale Simulationen mit dem ICON-Modell kombiniert werden. In Sensitivitätsstudien wird untersucht, wie sich der laterale Feuchtigkeitszufluss auf den SEB auswirkt, wobei die Analyse aus Eulerischer und Lagranger Perspektive erfolgt, um detaillierte Einblicke in die Prozesse zu erhalten. Basierend auf ERA5 und dem Guan-Waliser-Algorithmus zur Erkennung von ARs werden die klimatologischen Auswirkungen von ARs auf die Oberflächenflüsse sowie auf Feuchtigkeit, Wolkengehalt und Oberflächentemperaturen statistisch quantifiziert, wobei die Trends zwischen der „alten Arktis“ (1979-1999) und der „neuen Arktis“ (2000-2021) bewertet werden. Es werden zwei AR-Typen unterschieden: feuchtigkeitsdominiert („wet“) und winddominiert („windy“). Darüber hinaus wird das Auftreten von ARs im atlantischen Sektor mit atmosphärischen Zirkulationsregimen in Verbindung gebracht. ARs erwärmen im Allgemeinen die arktische Oberfläche, wobei eine starke Abhängigkeit von der Jahreszeit und dem Oberflächentyp besteht. Winter-ARs über dem offenen Ozean zeigen die stärksten Auswirkungen. Insgesamt werden die SEB-Anomalien hauptsächlich von Anomalien der turbulenten Flüsse (latente und fühlbare Wärme), i.e. den oberflächennahen Temperaturen und der Feuchte dominiert. Strahlungseffekte durch die Zunahme von flüssigem Wasser und Wasserdampf verstärken die terrestrische Rückstrahlung. Im Sommer führen schwächere Anomalien der turbulenten Flüsse sowie die zusätzlichen Wolken-Albedo-Effekte zu weniger starken SEB-Anomalien, die teilweise sogar zu einer geringeren Energieaufnahme der Oberfläche führen. ARs tragen signifikant zu den saisonalen mittleren SEB- und Hauttemperaturen bei, insbesondere im winterlichen Nordatlantik (bis zu 20 W m-², 1 K). Feuchtigkeitsdominierte ARs bewirken im Winter, Herbst und Frühjahr einen stärkeren Energiegewinn an der Oberfläche als winddominierte; im Sommer ist der Energiegewinn geringer. Dieser Unterschied ist auf einen höheren Flüssigwassergehalt der Wolken, höheren Wasserdampfgehalt und damit verbundene stärkere Strahlungseffekte sowie stärkere Anomalien des latenten Wärmeflusses zurückzuführen. Im Laufe von 45 Jahren hat der Rückgang des Meereises die Anomalien der AR-bezogenen Energieflüsse beeinflusst, insbesondere durch Veränderungen der turbulenten Wärmeflüsse. Die meisten ARs treten während der Prävalenz der atmosphärischen Zirkulationsregime NAO+ und SCAN auf, wobei SCAN besonders mit ARs in der zentralen Arktis verbunden ist. Diese beiden Zirkulationsregime sind auch mit den meisten winddominierten ARs verbunden. Die klare räumliche Zuordnung während der Regime ist besonders im Winter ausgeprägt. Änderungen in der Häufigkeit des Regimes über die letzten 45 Jahre entsprechen qualitativ den Veränderungen des AR-Auftretens

    Development and implementation of a semi-automated process to optimise web-based geodata and geoservices

    No full text
    Die Mehrzahl ökonomischer Daten (ca. 95%) besitzt neben den Sachmerkmalen in der Regel auch solche räumlicher Art. Diese so genannten Geodaten ermöglichen die räumliche Einordnung (neben dem inhaltlichen, auf Einzelwerte gerichteten Vergleich) den regionalen bzw. globalen Vergleich der verarbeiteten Wirtschaftsdaten. Eine große Zahl von Werkzeugen, Bibliotheken, oder kundenspezifisch angepasste Softwarekomponenten finden sich im Netz. Die Entwickler dieser Komponenten ermöglichen die Nutzbarkeit unter Anwendern aus der Geo-Scripting-Community. Eine intuitiv erlernbare, in Unternehmen leicht integrierbare Umgebung oder Komponente existieren in der Regel nicht. Die oft auch in der Wissenschaft entwickelten Tools erfahren wohl nur selten einen Transfer in die Wirtschaft. Das entwickelnde Verfahren soll beide „Welten“ miteinander verbinden und damit einen Wissenstransfer anwendungsbezogen sicherstellen. Zielstellung dieser Arbeit ist daher die Entwicklung eines Verfahrens zur teilautomatisierten Konstruktion statistischer Karten mit Blick auf die Nutzung durch kartografische Laien. Diese softwaretechnische Möglichkeit statistische Daten für jedermann in einer aussagekräftigen Kartendarstellung zu visualisieren fehlt bisher. Eine effektive Kommunikation über Wirtschaftskarten mit Raumbezug erfordert eine fachgerechte Kartenerstellung. Für diese Informationstransformation ist eine Datenabstraktion erforderlich. Die Visualisierung dieser Daten erfordert Fachwissen. Die Arbeit leitet daraus mehrere Forschungsfragen ab: 1) Wie kann das vorhandene Fachwissen zur Kartenerstellung gesammelt und zugänglich gemacht werden? 2) Wie kann das gesammelte Kartenkonstruktionswissen systematisiert und formalisiert werden? 3) Wie kann das formalisierte Kartenkonstruktionswissen in Algorithmen übertragen werden? 4) Wie können die Algorithmen zur Kartenkonstruktion in einen geführten modularen Prozess implementiert werden? 5) Wie kann dieser geführte Kartenerstellungsprozess in eine einfach zu bedienende Softwareplattform eingebettet werden? Alle Fragestellungen werden in dieser Arbeit bearbeitet. Der in dieser Arbeit vorgeschlagene Lösungsansatz bearbeitet insbesondere die Kodierung kartografischen Fachwissens sowie die Entwicklung eines teilautomatisierbaren Transformations- bzw. Visualisierungsprozesses. Dazu wird mit Blick auf die Konstruktion statistikkarten kleiner Maßstäbe dreiteilig vorgegangen: erstens ist das Expertenwissen zur Kartenkonstruktion zu formalisieren, zweitens ist diese Basis in einen fachgerechten Kartenkonstruktionsprozess zu überführen und drittens die dadurch entstehenden verketteten Arbeitsteilschritte der Kartenherstellung in maschinenlesbaren Programmcode zu transformieren. Unter Berücksichtigung des aktuellen Forschungsstandes und die aktuellen Rahmenbedingungen der gängigen Praxis wird insbesondere auf die Arbeitsschritte der Auswahl des optimalen Kartentyps, der Generalisierung der dafür erforderlichen Basiskarte sowie die Implementierung in Python-Code eingegangen. Für das Proof-Of-Concept wird das umgesetzte Verfahren anhand eines Anwendungsfallbeispiels durchgespielt. Grafische Ergebnisse werden für die Arbeitsschwerpunkte der Formalisierung, der Prozessgestaltung sowie der Codierung aufgezeigt. Diese Arbeit schlägt damit eine Brücke zwischen kartografischer Fachexpertise und programmiertechnischere Implementierung für die Unterstützung der Automatisation. Und damit der Erweiterung des Nutzerkreises für die Datenauswertung um die räumliche Komponente in Statistischen Karten.The majority of economic data (approx. 95%) is believed to contain spatial features in addition to their thematic attributes. This so-called geodata enables spatial localisation of data (in addition to the content-based comparison of individual values) and a regional or global comparison of the economic data processed. A large number of tools, libraries or customised software components can be found on the Internet. Developers of these components make usability among users from the geo-scripting community possible. An easy-to-perceive software environment or software components that can be easily integrated into the IT environment of business companies does not usually exist. Often, tools developed in academia rarely cross over and are utilised in the business world. In this work, the process developed aims at combining both of these ‘worlds’ and thus ensure an application-related transfer of knowledge in professional map construction. This work is therefore targeted at designing and developing a process for the semi-automated construction of statistical maps from economic mass data by non-cartographic experts. A software platform of this type that generates correct, easy-to-read map visualisations from existing business data has been unavailable to date. Effective communication by means of economic map representations requires professional map development in order to fully exploit their information and communication potential. Transforming alphanumeric data into professional maps calls for data abstraction and generalisation. Proper visualisation of these abstracted data requires expertise in map development and cartographic representation. Cartographic practitioners that are able to apply their knowledge possess this expertise, which is rarely found in published handbooks or texts. Against this background, the following research questions are dealt with: 1) How can the existing expertise used in the creation of maps be collected and made accessible? 2) How can the collected map development expertise be systematised and formalised? 3) How can the formalised map development expertise be transferred into algorithms? 4) How can the map creation and development algorithms be implemented into a guided modular process? 5) How can this guided map development process be embedded into an easy-to-use software platform? Accordingly, the solution approach proposed in this thesis comprises the collection and coding of cartographic expertise and the development of an automated data transformation and visualisation process. As this work targets small-scale map representations, a cascade of data abstractions is required. In a first step, the expert knowledge that has been acquired is formalised. In a second step, a professional map development process from this body of knowledge is derived, and in a third step the resulting modular process is implemented into map construction software. As the map creation and development process is targeted at non-expert users, particular attention is paid to usability and, in particular, selection of the map type that best fits the data, generalisation of the base map and map composition. As a proof-of-concept, the process implemented is analysed using a use case example. Graphical results are subsequently presented for the main areas of formalisation, process design and coding. In conclusion, this work aims to build a bridge between conventional cartographic expertise and the provision of an informed map construction framework for a better use in processing and analysis of large business data stocks, including the added value of the spatial data components

    Serious and humorous stories from ancient Rome And Greece

    No full text
    Wir unternehmen eine Reise durch die mehr als tausendjährige Geschichte des klassischen Altertums. Keine Chronik im engeren Sinne: Alle Geschichten handeln von bemerkenswerten, nachdenklichen oder skurrilen Figuren und Motiven, die von der Mythologie bis zur Historiographie reichen. Zugleich ragen sie weit über ein konkretes Ereignis hinaus. Der epischen Deutung der Welt wird ein besonderer Platz eingeräumt, aber auch das Orakelwesen, literarische Figuren, historische Ereignisse und philosophische Abhandlungen werden zu Gegenständen der Darstellung. Mit Alexander dem Großen betreten wir die Bühne, auf der Orient und Okzident aufeinandertreffen. Die Kapitel ranken sich um eigenwillige historische oder fiktive Personen. Wir begegnen bekannten und weniger bekannten Gestalten, Männern wie Frauen. Das Panoptikum der Szenen haben wir durch subjektive Analogien und Analysen ergänzt, die mit der conditio humana zu tun haben, aber auch mit Episoden aus der jüngeren Geschichte und Gegenwart verknüpft werden, als Impulse für das Nachdenken über Zeitläufe.This collection of thirty-five stories from the early Greek history to the later Roman antiquity provides a provoking survey of topics and figures from mythology to historiography, from the Homeric songs and Herodot´s world to Pericles´ Athens, from Roman heroes and emperors to the early history of the new Christian religion and especially the sometimes even crude uprising of some early Popes. Narrations about interesting famous and not so famous antique women and female figures in historiography and literary works like Dido, Lysistrata, Messalina or Agrippina complete the collection of episodes from antiquity. The stories explore a wide range of topics including challenging and strange behaviours from historic or literary figures. They also provide a new survey of the ancient world concentrating on historic events and actions with a special universal interest. Our short subjective analysis on each chapter´s topic does not claim a uniform viewpoint but invites our readers to discuss a broad spectrum of different interpretations about historical processes based on facts and legends

    Change patterns in dynamic event attributes

    No full text
    Process mining bridges the gap between process science and data science in order to understand and improve business processes. It utilises process execution data to derive insights about how processes are actually conducted. Event logs represent process executions and provide information about the activities performed. In addition to generic event attributes like activity name and timestamp, events might contain domain-specific attributes that occur quite frequently during a typical process, such as a blood pressure measurement in a healthcare environment. These event attributes are sensitive to process execution, making them susceptible to change. We refer to those as dynamic event attributes. This thesis adds a new perspective on dynamic event attributes, allowing us to understand how their values change in the form of change patterns. This helps to confirm the expected behaviour of dynamic event attributes but also allows for the derivation of novel insights by identifying unexpected changes. In this thesis, we provide the necessary methods and tools to detect and analyse change patterns in dynamic event attributes. This includes an event log extraction tool to extract event logs with dynamic event attributes from the Medical Information Mart for Intensive Care (MIMIC-IV), as well as a classification technique to automatically identify dynamic event attributes in event logs. Representing the core of this thesis, we provide an exploratory technique for detecting change patterns in dynamic event attributes. In order to get a better understanding of change patterns, we contribute a method to automatically identify relationships between them. Additionally, we cover event logs where dynamic event attributes are associated with recurring activities and allow for the detection of change patterns in those. Finally, this thesis allows for the comparison of process variants based on event attribute values, including change patterns. Orion, an implementation presented in this thesis, demonstrates the feasibility of the proposed approaches by offering an end-to-end solution for detecting and exploring change patterns. We tested the analysis methods on real-world healthcare event logs from MIMIC-IV and Sepsis. Together with medical experts and domain knowledge from clinical guidelines, we evaluated the results.Process Mining schließt die Lücke zwischen Prozesswissenschaft und Datenwissenschaft, um Geschäftsprozesse zu verstehen und zu verbessern. Es nutzt Daten über die Prozessausführung, um Erkenntnisse darüber zu gewinnen, wie Prozesse tatsächlich durchgeführt werden. Ereignisprotokolle stellen Prozessausführungen dar und liefern Informationen über die durchgeführten Aktivitäten. Neben allgemeinen Ereignisattributen wie Aktivitätsname und Zeitstempel können Ereignisse auch domänenspezifische Attribute enthalten, die während eines typischen Prozesses recht häufig auftreten, wie z. B. eine Blutdruckmessung in einer Gesundheitsumgebung. Diese Ereignisattribute reagieren empfindlich auf die Prozessausführung und sind daher anfällig für Änderungen. Wir bezeichnen diese als dynamische Ereignisattribute. Diese Arbeit fügt eine neue Perspektive auf dynamische Ereignisattribute hinzu, die es uns ermöglicht zu verstehen, wie sich ihre Werte in Form von Änderungsmustern ändern. Dies hilft, das erwartete Verhalten dynamischer Ereignisattribute zu bestätigen, ermöglicht aber auch die Ableitung neuer Erkenntnisse durch die Identifizierung unerwarteter Veränderungen. In dieser Arbeit stellen wir die notwendigen Methoden und Werkzeuge bereit, um Änderungsmuster in dynamischen Ereignisattributen zu erkennen und zu analysieren. Dazu gehört ein Tool zur Extraktion von Ereignisprotokollen mit dynamischen Ereignisattributen aus dem Medical Information Mart for Intensive Care (MIMIC-IV) sowie eine Klassifizierungstechnik zur automatischen Identifizierung dynamischer Ereignisattribute in Ereignisprotokollen. Den Kern dieser Arbeit bildet eine explorative Technik zur Erkennung von Änderungsmustern in dynamischen Ereignisattributen. Um ein besseres Verständnis von Änderungsmustern zu erhalten, stellen wir eine Methode zur automatischen Identifizierung von Beziehungen zwischen ihnen bereit. Darüber hinaus befassen wir uns mit Ereignisprotokollen, in denen dynamische Ereignisattribute mit wiederkehrenden Aktivitäten verbunden sind, und ermöglichen die Erkennung von Änderungsmustern in diesen. Schließlich ermöglicht diese Arbeit den Vergleich von Prozessvarianten auf der Grundlage von Ereignisattributwerten, einschließlich Änderungsmustern. Orion, eine in dieser Arbeit vorgestellte Implementierung, demonstriert die Machbarkeit der vorgeschlagenen Ansätze, indem sie eine End-to-End-Lösung zur Erkennung und Untersuchung von Änderungsmustern bietet. Wir haben die Analysemethoden an realen Ereignisprotokollen des Gesundheitswesens aus MIMIC-IV und Sepsis getestet. Gemeinsam mit medizinischen Experten und Fachwissen aus klinischen Leitlinien haben wir die Ergebnisse ausgewertet

    Korngrößendynamik in der Vorlandstratigraphie durch Modellierung

    No full text
    The grain size preserved within the stratigraphic record over thousands to millions of years has a wide breadth of relevance for deciphering past tectonic and climatic events within the continental sedimentary system and within applications for reservoir prediction, groundwater modelling and floodplain weathering. Here, we present a new model for grain size fining predictions that couples a landscape evolution model (with deposition and erosion components (Yuan et al. 2019)) with a self-similar model for gravel and sand (Fedele and Paola 2007). The new model, that we called GravelScape, includes the e"ects on grain size fining of lateral heterogeneity in deposition rate caused by dynamically evolving channels. Through an initial validation, we show that when channel avulsions are prevented, by reducing the planform model to a single, downstream dimension, our new model can reproduce results from past methods (e.g. (Duller et al. 2010)) that assume that fining is controlled by subsidence only. However, deviations in predicted grain size occur when the e"ects of a multi-channel (internal or autogenic dynamics) planform model are considered. The amplitude of these deviations seems to be proportional to the extent of sedimentary system bypass and the shape of the surface topography, which influence the magnitude of across-basin variation within the sedimentary system. Under low bypass and gentle slopes, grain size trends are primarily governed by subsidence, while high bypass and steep topography enhance autogenic influences. Simulating shorter transport lengths (e.g. decreasing orogen discharge, increasing basin area, or increasing transient sediment in the basin) tend to generate more autogenic related fining and variance within a basin. We demonstrate how these dynamics of grain size fining can be mapped using a framework that links by-pass and surface geometry, with practical applications for foreland basin evolution illustrated using data from the Alberta Basin in Western Canada. As the by-pass ratio increases over time, as seen in foreland basins, there is a transition from subsidence to autogenicall dominated grain size fining. We also test under which conditions Milankovitch scale precipitation perturbations are best captured within the continental alluvial fan system considering autogenic variability, perturbation strength, and preservation. We then apply a detailed misfit comparing the model to data in the Grapevine mountain fans of Death Valley, where both climate and autogenic fan responses have been observed. Our research contributes to the interpretation of grain size trends in natural systems and their response to both autogenic and external forces. Prior to this dissertation, no landscape evolution model could e!ciently (within minutes) predict grain sizes preserved within the sedimentary record over large spatial and long temporal scales in response to climatic, tectonic, and internal forcing.Die Korngröße in Sedimenten, also die Größe von Partikeln wie Kies und Sand, die über Tausende bis Millionen von Jahren in den Erdschichten erhalten bleibt, kann Sedimentologen viel verraten. Sie hilft uns, Dinge wie Grundwasserbewegung, Erosion von Flussufern und die Bildung natürlicher Reservoirs zu verstehen. Veränderungen in der Korngröße können auch auf wichtige Ereignisse wie Klimaveränderungen, Meeresspiegelschwankungen oder tektonische Aktivitäten hinweisen. In dieser Studie stellen wir ein neues Modell namens „GravelScape“ vor, das vorhersagt, wie sich die Korngröße im Laufe der Zeit verändert. Im Gegensatz zu viele früheren Modellen, die hauptsächlich von einem einfachen, eindimensionalen Fluss und einer gleichmäßigen Sedimentablagerung ausgingen, berücksichtigt GravelScape eine realistischere Darstellung von Flüssen, die sich über Landschaften ausbreiten, und wie sich mehrere Flusskanäle miteinander verhalten. Unser Modell zeigt, dass bei geringem Sediment-Bypass (das heißt, wenn die meisten Sedimente abgelagert werden und nicht weiter flussabwärts transportiert werden) und einer relativ flachen Landschaft die Korngrößentrends hauptsächlich durch die Absenkung des Landes gesteuert werden. Wenn jedoch der Sediment-Bypass hoch ist (wie in Gebirgstälern oder Vorlandbecken) und die Hänge steil sind, spielen die natürlichen Dynamiken des Flusssystems eine größere Rolle bei der Formung der Korngrößenmuster. Wir haben dieses Modell verwendet, um zu verstehen, wie sich Korngrößentrends in realen Umgebungen, wie dem Alberta-Becken in Kanada, entwickeln. Darüber hinaus haben wir untersucht, wie Klimaveränderungen auf kürzeren Zeitskalen, wie sie durch Milankovitch-Zyklen (die periodische Veränderungen in der Umlaufbahn der Erde umfassen) verursacht werden, in den Sedimentschichten erfasst werden. Durch den Vergleich der Vorhersagen unseres Modells mit tatsächlichen Korngrößendaten aus Gebieten wie den Grapevine Mountains im Death Valley können wir besser verstehen, wie Klima- und Landschaftsveränderungen ihre Spuren im geologischen Archiv hinterlassen. Insgesamt trägt diese Forschung dazu bei, unser Verständnis dafür zu verbessern, wie Flusskorngrößentrends in natürlichen Systemen entstehen und wie sie sowohl auf interne Dynamiken als auch auf äußere Einflüsse reagieren

    Zum Verständnis der molekularen Evolution der Redundanz bei Pflanzen

    No full text
    Gene duplication events have repeatedly occurred during angiosperm evolution, representing an important source of genetic redundancy and contributing to the evolution of genomic complexity. One proposed mechanism for the stable maintenance of duplicated genes is subfunctionalization. This process involves mutations to different functional elements of the genes, leading to a division of subfunctions between the duplicates, ensuring that both copies are required to achieve the complete set of original functions. In line with the modular structure of eukaryotic promoters, mutational changes are believed to predominantly occur at the level of cis-regulatory sequences, thus influencing a gene's spatial and temporal expression. In this study, we investigate the partial loss of redundancy between two duplicated genes in Capsella rubella, BOP1 and BOP2 and compared to their counterparts in Arabidopsis thaliana. In A. thaliana, BOP1 and BOP2 genes arose from a Whole Genome Duplication (WGD) and remain almost fully redundant. In contrast, in C. rubella, BOP1 is unable to maintain wild-type floral organ numbers or suppress bract formation, likely due to altered expression patterns in cryptic bract primordium. Using transgenic rescue in A. thaliana atbop1 atbop2 mutants and AtBOP1 promoter deletions, it was demonstrated that alterations in the interactions between the blocks of conserved non-coding sequences in the BOP1 promoter regions underlie this evolutionary divergence. These findings highlight the complexity of promoter architecture and the role of cis-regulatory element interactions in driving gene expression changes and redundancy loss. Additionally, we discovered that subfunctionalized BOP1 was already widespread in Capsella grandiflora, the ancestral species of C. rubella, prior to the latter's transition to selfing. Identifying natural modifiers of the crbop2-1 phenotype indicates the large extent of cryptic genetic variation present in the outbreeding C. grandiflora population, providing insights into the evolution of gene redundancy and subfunctionalization.Während der Evolution der Angiospermen kam es immer wieder zu Genduplikationen, die eine wichtige Quelle für genetische Redundanz darstellen und zur Evolution der genomischen Komplexität beitragen. Ein vorgeschlagener Mechanismus für die stabile Aufrechterhaltung von Genduplikaten ist die Subfunktionalisierung. Dieser Prozess beinhaltet Mutationen an verschiedenen funktionellen Elementen der Gene, die zu einer Aufteilung der Teilfunktionen zwischen den Duplikaten führen und sicherstellen, dass beide Kopien erforderlich sind, um die vollständige Reihe der ursprünglichen Funktionen zu erfüllen. In Übereinstimmung mit dem modularen Aufbau eukaryontischer Promotoren wird angenommen, dass Mutationsänderungen vorwiegend auf der Ebene der cis-regulatorischen Sequenzen stattfinden und somit die räumliche und zeitliche Expression eines Gens beeinflussen. In dieser Studie untersuchen wir den teilweisen Verlust der Redundanz zwischen zwei duplizierten Genen in Capsella rubella, BOP1 und BOP2, und vergleichen sie mit ihren Gegenstücken in Arabidopsis thaliana. In A. thaliana sind die Gene BOP1 und BOP2 aus einer Whole Genome Duplication (WGD) entstanden und bleiben fast vollständig redundant. Im Gegensatz dazu ist BOP1 in C. rubella nicht in der Lage, die Anzahl der Blütenorgane des Wildtyps aufrechtzuerhalten oder die Bildung von Hüllblättern zu unterdrücken, was wahrscheinlich auf veränderte Expressionsmuster im kryptischen Hüllblattprimordium zurückzuführen ist. Durch transgene Rettung in A. thaliana atbop1 atbop2-Mutanten und Deletionen des AtBOP1-Promotors konnte gezeigt werden, dass Veränderungen in den Interaktionen zwischen den Blöcken der konservierten nicht-kodierenden Sequenzen in den BOP1-Promotorregionen dieser evolutionären Divergenz zugrunde liegen. Diese Ergebnisse verdeutlichen die Komplexität der Promotorarchitektur und die Rolle der Interaktionen zwischen cis-regulatorischen Elementen bei der Veränderung der Genexpression und dem Verlust von Redundanz. Darüber hinaus haben wir festgestellt, dass subfunktionalisiertes BOP1 in C. grandiflora bereits vor dem Übergang zu C. rubella verbreitet ist. Die Identifizierung natürlicher Modifikatoren des crbop2-1-Phänotyps weist auf das große Ausmaß kryptischer genetischer Variation in der auskreuzenden C. grandiflora-Population hin und bietet Einblicke in die Evolution von Genredundanz und Unterfunktionalisierung

    Beispiel-Regel oder Regel-Beispiel: Zum Einfluss der Strukturfolge auf den Lernerfolg

    No full text
    Der Lehrkräftemangel stellt sich aktuell als größte Herausforderung für das Bildungssystem dar. Um dieser Herausforderung zu begegnen, schlägt die Ständige Wissenschaftliche Kommission (SWK) in ihrem Gutachten als eine Möglichkeit die Erhöhung der Selbstlernzeit der Schüler*innen vor. Diese Maßnahme setzt aber das Vorhandensein empirisch geprüfter, lernwirksamer Materialien voraus. Lernvideos stellen in diesem Zusammenhang eine versprechende Option dar, weil sie von Schüler*innen bereits häufig genutzt werden und dadurch eine breite Akzeptanz erfahren. Damit diese Videos aber lernwirksam sind, müssen sie bestimmten Qualitätskriterien folgen. Hinsichtlich der Strukturierung von Lernvideos ist jedoch noch nicht hinreichend empirisch geklärt, inwieweit eine Strukturfolge (Beispiel - Regel, Regel - Beispiel) der anderen in Bezug auf den Lernerfolg überlegen ist und welche Rolle dabei das Vorwissen der Lernenden spielt. Für den physiknahen Bereich deutet sich zwar an, dass die konkrete Strukturfolge keinen Einfluss auf den Lernerfolg hat, die Studien dazu beschränken sich dabei aber auf elektrodynamische und technische Inhalte. Um den Zusammenhang zwischen Strukturfolge und Lernerfolg, den Einfluss des Vorwissens darauf sowie mögliche, weitere affektiv-motivationale Einflussfaktoren zu unter-suchen, wurden im Rahmen der vorliegenden Studie zwei identische Lernvideos zum Wechselwirkungsgesetz entwickelt, die sich lediglich in ihrer Strukturfolge (Beispiel-Regel, Regel-Beispiel) unterscheiden. Diese wurden in ein Online-Prä-Post-Design mit Fragebögen zur Erhebung der fachwissensbezogenen und affektiv-motivationalen Konstrukte eingebettet und in Schulklassen aller weiterführender Schulformen eingesetzt. Die Gesamtstichprobe beläuft sich auf N = 258 Schüler*innen der Doppeljahrgangsstufe 9/10 und verteilt sich annähernd gleichmäßig auf die beiden Interventionsgruppen (Beispiel-Regel: n = 135, Regel–Beispiel: n = 123). Die Ergebnisse der Studie zeigen, dass sich beide Interventionsgruppen nicht signifikant in ihrem Lernerfolg unterscheiden und die Strukturfolge demnach keinen Einfluss auf den Lernerfolg im Rahmen der vorgestellten Lernvideos zum Wechselwirkungsgesetz hat. Das Vorwissen zeigt sich in allen Analysen als wichtigstes Konstrukt zur Vorhersage des Lernerfolgs, den Effekt der Strukturfolge auf den Lernerfolg moderiert es aber nicht. Mit Hilfe der Vorwissensleistung, dem Gefühl von Druck und Anspannung sowie der emp-fundenen Strukturierung kann darüber hinaus der Lernerfolg mit einer hohen Varianzaufklärung von R^2 = 0.30 vorausgesagt werden. Die Ergebnisse der vorliegende Arbeit reihen sich damit in die empirische Befundlage physiknaher und disziplinferner Studien ein, die ebenfalls keinen (bzw. nur eingeschränkt) hervorgehobenen Effekt für eine Strukturfolge feststellen konnten. Als Erweiterung kann dieses Ergebnis nun auch in einem anderen physikalischen Kontext, der Newtonschen Mechanik, festgehalten werden. Insgesamt beleuchtet die Studie sehr konkrete Aspekte zur lernförderlichen Gestaltung von Lernvideos zur Nutzung im Physikunterricht. Die gewonnenen Ergebnisse tragen so zu einer empirischen Befundlage bei, die es ermöglicht, empirisch abgesichertes Material zu erstellen, das im Sinne der SWK-Stellungnahme als Maßnahme zum Umgang mit dem Lehrkräftemangel beiträgt.At present, the shortage of teachers is the most pressing challenge facing the education system. To meet this demand, the SWK (Ständige Wissenschaftliche Kommission) recommends an increase of students' self-learning time. However, this measure requires the availability of empirically tested learning materials. Educational videos are a promising tool in this context since they are already frequently used by students and thus widely accepted. However, for these videos to be effective for learning, they must fulfil certain quality criteria. With regard to the structuring of educational videos, however, it has not yet been sufficiently empirically clarified to what extent one structural sequence (example-rule, rule-example) is superior to another in terms of learning success and what role the learners' prior knowledge plays in this. For the physics-related area, there are indications that the specific structural sequence has no influence on learning success, but the studies on this are limited to electrodynamic and technical content. To analyse the relationship between structural sequence and learning success, the influence of prior knowledge on it and possible further affective-motivational influencing factors, two identical educational videos on the law of interaction were developed as part of the present study, which differ only in their structural sequence (example-rule, rule-example). These were embedded in an online pre-post design with questionnaires to survey the content-knowledge-related and affective-motivational constructs and then applied in school classes of all secondary school types. The total sample totaled N = 258 students in the 9th/10th grade and was distributed almost equally between the two intervention groups (example-rule: n = 135, rule-example: n = 123). The results of the study show that the two intervention groups do not differ significantly in their learning success and that the structural sequence therefore has no influence on learning success in the context of the educational videos on the law of interaction presented. In all analyses, prior knowledge appears to be the most important construct for predicting learning success, but it does not moderate the effect of the structural sequence on learning success. With the help of prior knowledge, the feeling of pressure and tension and the perceived structuring, learning success can also be predicted with a high level of variance explanation of R2 = 0.30. Thus, the results of the present study are in line with the empirical findings of studies close to physics and studies from outside the discipline, which were also unable to determine any (or only a limited) emphasised effect for a structural sequence. As an extension, this outcome can now also be applied to another physical context, namely Newtonian mechanics. Overall, the study sheds light on very specific aspects of the learning-promoting design of educational videos for use in physics teaching. The results thus contribute to an empirical evidence base that enables the creation of empirically validated material that contributes to dealing with the shortage of teachers in line with the SWK statement

    Accounting for geographic and social heterogeneity in models of human migration

    No full text
    Human migration significantly influences demography and economics in our globalized world. The impacts on origin and destination countries can vary widely: positively by alleviating labor shortages and contributing to cultural diversity, and negatively by causing brain drain or social integration challenges. Migration studies aim to unravel these complex dynamics by analyzing movement patterns and identifying underlying drivers. This cumulative thesis explores heterogeneities in human mobility and suggests modeling approaches to improve performance under specific scenarios. Departing from the common idea of universal laws for human migration, I am trying to explain a large range of applications and behaviors with a single modeling framework. We begin by examining spatial heterogeneities associated with internal migration, focusing on traveled distance and direction. Our investigation employs two models: the Radiation Model, which predicts migration flows based on population sizes and distribution without fitting parameters, and the Gravity Model, which uses population size and traveled distance, allowing for multiple fitting parameters. In the first part, I address heterogeneities connected to traveled distance. Using data on internal migration from the USA and Mexico, we demonstrate that the Radiation Model consistently underpredicts long-distance moves, whereas the Gravity Model performs well for large distances. We propose an extension of the Radiation Model by introducing a single parameter. This parameter can be interpreted as an increasing loss of information about potential destinations with increasing traveled distance. Our extended model fits the data across the full spectrum of traveled distances while remaining analytically tractable. The second part investigates the moving direction for internal migration using the Radiation Model. We identify a conceptual discontinuity in the original model related to how populations are counted. Additionally, neglecting migration direction, such as towards or away from large metropolitan areas, can significantly affect migrant number estimations. Our proposed modification incorporates the angle between alternative potential destinations, considering that migrants may have directional preferences. This modification addresses the conceptual inconsistency and enhances the model's fit to observational migration data without introducing fitting parameters. Next, we shift focus to demographic heterogeneities in international migration projections. We extend a global Gravity-type Model of bilateral migration to include age, sex, and education dimensions while accounting for classical economic and social drivers. This enhanced model allows coupling with a widely used cohort-component population model, enabling future migration projections until 2050 under various socioeconomic scenarios. Furthermore, the enhanced migration model fits the data better than the original model without demographic dimensions and is more sensitive to socioeconomic scenario choices. When integrated with the population projection model, it aligns stylized migration assumptions with quantitative estimates of key migration drivers, capturing interactions between migration and other demographic processes. We conclude that complex movement patterns can only be explained by accounting for heterogeneities in individual and local factors driving human migration. While minimalist approaches can provide insights into general movement, they are insufficient to explain the complex migration streams found in data and should be extended for more accurate results. We demonstrated this for two spatial heterogeneities (traveled distance and direction) and demographic heterogeneities (age, sex, and education). Providing some fundamental insights into these topics, future research should extend the identification and model implementation of heterogeneities to further improve our understanding and prediction of human migration patterns.Migration beeinflusst zunehmend die Demografie und Wirtschaft in unserer globalisierten Welt. Die Auswirkungen auf Herkunfts- und Zielländer können jedoch sehr unterschiedlich sein: positiv beispielsweise durch die Entlastung von Arbeitsmarkts durch zusäztliche Fachkräfte oder auch die Bereicherung kultureller Vielfalt; negativ hingegen durch den Verlust hochqualifizierter Arbeitskräfte (Brain-drain) oder Herausforderungen bei der sozialen Integration. Migrationsstudien zielen darauf ab, diese komplexen Dynamiken zu verstehen, indem sie Bewegungsmuster analysieren und die zugrunde liegenden Treiber identifizieren. Diese kumulative Doktorarbeit untersucht Heterogenitäten in der Mobilität von Migrant*Innen und schlägt Modellierungsansätze vor, um die Leistung existierender Ansätze zu verbessern. Wir beginnen mit der Untersuchung räumlicher Heterogenitäten im Zusammenhang mit Binnenmigration und konzentrieren uns auf die zurückgelegte Distanz und Bewegungrichtung. Unsere Forschung konzentriert sich auf zwei Modelle: das Radiation-Modell, welches Migrationsströme basierend auf Bevölkerungsgrößen und -verteilung ohne Fitting-Parameter vorhersagt, und das Gravity-Modell, das Bevölker-ungsgröße und zurückgelegte Distanz verwendet und eine Vielzahl von zusätzlichen Parametern bietet. Die erste Veröffentlichung behandelt Heterogenitäten in Bezug auf die zurückgelegte Distanz. Anhand von Daten zur Binnenmigration aus den USA und Mexiko zeigen wir, dass das Radiation-Modell lange Distanzen unterschätzt, wäh-rend das Gravity-Modell für große Entfernungen bessere Vorhersagen liefert. Wir schlagen eine Erweiterung des Radiation-Modells durch die Einführung eines einzelnen Parameters vor. Dieser Parameter kann als steigender Informationsverlust über potenzielle Ziele mit zunehmender zurückgelegter Distanz interpretiert werden. Unser erweitertes Modell verbessert die reproduzierten Migrationsdaten über das gesamte Spektrum der zurückgelegten Entfernungen hinweg und bewahrt gleichzeitig wertvolle analytischen Eigenschaften des ursprünglichen Radiation-Modells. Die zweite Veröffentlichung untersucht die Bewegungsrichtung bei der Binnenmigration unter Verwendung des Radiation-Modells. Wir identifizieren eine konzeptionelle Diskontinuität im ursprünglichen Modell in Bezug auf seine Interpretation der Bevölker-ungsverteilung. Darüber hinaus kann die Vernachlässigung der Migrationsrichtung, beispielsweise hin zu oder weg von großen Metropolregionen, die Schätzung der Migrantenzahlen erheblich beeinflussen. Unsere vorgeschlagene Modifikation berücksichtigt den Winkel zwischen alternativen potenziellen Zielen, wobei davon ausgegangen wird, dass Migrant*Innen möglicherweise Richtungspräferenzen haben. Diese Modifikation verbessert die konzeptionelle Inkonsistenz und verbessert die Anpassung des Modells an beobachtete Migrationsdaten, ohne Anpassungsparameter einzuführen. Als nächstes verlagern wir den Fokus auf demografische Heterogenitäten in internationalen Migrationsprojektionen. Wir erweitern ein globales Gravity-Modell für bilaterale Migration um Alters-, Geschlechts- und Bildungsdimensionen, wäh-rend wir weiterhin klassische wirtschaftliche und soziale Treiber berücksichtigen. Dieses erweiterte Modell ermöglicht die Kopplung mit einem weit verbreiteten Kohorten-Komponenten-Populationsmodell und erlaubt Migrationsprojektionen bis 2050 unter verschiedenen sozioökonomischen Szenarien. Wir stellen fest, dass dieses erweiterte Migrationsmodell die Daten besser anpasst als das ursprüngliche Modell und empfindlicher auf die Wahl des sozioökonomischen Szenarios reagiert. Wenn es mit dem Bevölkerungsprojektionsmodell gekoppelt wird, stimmt es stilisierte Migrationsannahmen mit quantitativen Schätzungen der wichtigsten Migrationstreiber überein und erfasst die Wechselwirkungen zwischen Migration und anderen demografischen Prozessen. Wir kommen zu dem Schluss, dass komplexe Bewegungsmuster nur erklärt werden können, indem Heterogenitäten in individuellen und lokalen Faktoren berücksichtigt werden. Während minimalistische Ansätze Einblicke in allgemeine Bewegungen bieten können, sind sie unzureichend, um die komplexen Migrationsströme in den Daten zu erklären, und sollten für genauere Ergebnisse dementsprechend erweitert werden. Dies haben wir für zwei räumliche Heterogenitäten (Distanz und örtliche Orientierung) und drei demografische Heterogenitäten (Alter, Geschlecht und Bildung) gezeigt. Da in dieser Arbeit nur einige dieser Heterogenitäten behandelt werden, sollte die zukünftige Forschung die Identifizierung und Modellimplementierung dieser Verhaltensweisen weiter ausbauen, um unser Verständnis und unsere Vorhersage von Migrationsmustern weiter zu verbessern

    39

    full texts

    54,111

    metadata records
    Updated in last 30 days.
    publish.UP (Univ. Potsdam) is based in Germany
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇