4,304 research outputs found

    Linear Amplification in Nonequilibrium Turbulent Boundary Layers

    Get PDF
    Resolvent analysis is applied to nonequilibrium incompressible adverse pressure gradient (APG) turbulent boundary layers (TBL) and hypersonic boundary layers with high temperature real gas effects, including chemical nonequilibrium. Resolvent analysis is an equation-based, scale-dependent decomposition of the Navier Stokes equations, linearized about a known mean flow field. The decomposition identifies the optimal response and forcing modes, ranked by their linear amplification. To treat the nonequilibrium APG TBL, a biglobal resolvent analysis approach is used to account for the streamwise and wall-normal inhomogeneities in the streamwise developing flow. For the hypersonic boundary layer in chemical nonequilibrium, the resolvent analysis is constructed using a parallel flow assumption, incorporating N₂, O₂, NO, N, and O as a mixture of chemically reacting gases. Biglobal resolvent analysis is first applied to the zero pressure gradient (ZPG) TBL. Scaling relationships are determined for the spanwise wavenumber and temporal frequency that admit self-similar resolvent modes in the inner layer, mesolayer, and outer layer regions of the ZPG TBL. The APG effects on the inner scaling of the biglobal modes are shown to diminish as their self-similarity improves with increased Reynolds number. An increase in APG strength is shown to increase the linear amplification of the large-scale biglobal modes in the outer region, similar to the energization of large scale modes observed in simulation. The linear amplification of these modes grows linearly with the APG history, measured as the streamwise averaged APG strength, and relates to a novel pressure-based velocity scale. Resolvent analysis is then used to identify the length scales most affected by the high-temperature gas effects in hypersonic TBLs. It is shown that the high-temperature gas effects primarily affect modes localized near the peak mean temperature. Due to the chemical nonequilibrium effects, the modes can be linearly amplified through changes in chemical concentration, which have non-negligible effects on the higher order modes. Correlations in the components of the small-scale resolvent modes agree qualitatively with similar correlations in simulation data. Finally, efficient strategies for resolvent analysis are presented. These include an algorithm to autonomously sample the large amplification regions using a Bayesian Optimization-like approach and a projection-based method to approximate resolvent analysis through a reduced eigenvalue problem, derived from calculus of variations.</p

    Multiscale Modeling of Curing and Crack Propagation in Fiber-Reinforced Thermosets

    Get PDF
    Aufgrund ihres Leichtbaupotenzials bei relativ geringen Kosten gewinnen glasfaserverstärkte Polymere in industriellen Anwendungen zunehmend an Bedeutung. Sie verbinden die hohe Festigkeit von Glasfasern mit der Beständigkeit von z.B. duroplastischen Harzen. Bei der Verarbeitung von faserverstärkten Duroplasten kommt es zu einer chemischen Reaktion des Harzes. Die chemische Reaktion geht mit einer chemischen Schrumpfung einher. In Verbindung mit der thermischen Ausdehnung kann das Material bereits beim Herstellungsprozess beschädigt werden. Auch wenn das Komposit nicht vollständig versagt, kann es zu Mikrorissbildung kommen. Diese Schäden können die Blastbarkeit des Bauteils und damit seine Lebensdauer beeinträchtigen. Faserverstärkte Duroplaste enthalten Strukturen auf verschiedenen Längenskalen, die das Verhalten des Gesamtbauteils beeinflussen und daher für eine genaue Vorhersage der Rissbildung berücksichtigt werden müssen. Das Verständnis der Mechanismen der Rissbildung auf den verschiedenen Längenskalaen ist daher von großem Interesse. Auf der Grundlage von Molekulardynamiksimulationen wird ein Harzsystem zusammen mit einer Faseroberfläche und einer Schlichte auf der Nanoskala betrachtet und ein systematisches Verfahren für die Entwicklung eines ausgehärteten Systems vorgestellt. Eine zweistufige Reaktion, eine Polyurethanreaktion und eine radikale Polymerisation, wird auf der Grundlage eines etablierten Ansatzes modelliert. Anhand des fertig ausgehärteten Systems werden Auswertungen über gemittelte Größen und entlang der Normalenrichtung der Faseroberfläche durchgeführt, was eine räumliche Analyse der Faser-Schlichtharz-Grenzfläche erlaubt. Auf der Mikrolängenskala werden die einzelnen Fasern räumlich aufgelöst. Mit Hilfe der Kontinuumsmechanik und der Phasenfeldmethode wird das Versagen während des Aushärtungsprozesses auf dieser Längenskala untersucht. In der Materialwissenschaft wird die Phasenfeldmethode häufig zur Modellierung der Rissausbreitung verwendet. Sie ist in der Lage, das komplexe Bruchverhalten zu beschreiben und zeigt eine gute Übereinstimmung mit analytischen Lösungen. Dennoch sind die meisten Modelle auf homogene Systeme beschränkt, und nur wenige Ansätze für heterogene Systeme existieren. Es werden bestehende Modelle diskutiert und ein neues Modell für heterogene Systeme abgeleitet, das auf einem etablierten Phasenfeldansatz zur Rissausbreitung basiert. Das neue Modell mit mehreren Rissordnungsparametern ist in der Lage, quantitatives Risswachstum vorherzusagen, wo die etablierten Modelle eine analytische Lösung nicht reproduzieren können. Darüber hinaus wird ein verbessertes Homogenisierungsschema, das auf der mechanischen Sprungbedingung basiert, auf das neuartige Modell angewandt, was zu einer Verbesserung der Rissvorhersage selbst bei unterschiedlichen Steifigkeiten und Risswiderständen der betrachteten Materialien führt. Zudem wird zur Erzeugung digitaler Mikrostrukturen, die für Aushärtungssimulationen im Mikrobereich verwendet werden, ein Generator für gekrümmte Faserstrukturen eingeführt. Anschließend wird die Verteilung mechanischer und thermischer Größen für verschiedene Abstraktionsebenen der realen Mikrostruktur sowie für verschiedene Faservolumenanteile verglichen. Schließlich wird das neue Rissausbreitungsmodell mit dem Aushärtungsmodell kombiniert, was die Vorhersage der Mikrorissbildung während des Aushärtungsprozesses von glasfaserverstärktem UPPH-Harz ermöglicht

    On the evolution of turbulent boundary layers during flame-wall interaction investigated by highly resolved laser diagnostics

    Get PDF
    The turbulent boundary layer behavior in the presence of flame-wall interactions (FWI) has an important role on the mass and energy transfer at the gas/solid interface. Detailed experiments resolving the turbulent boundary layer evolution in the presence of FWI are lacking, which impedes knowledge. This work presents a combination of particle image velocimetry (flow field), dual-pump coherent anti-Stokes Raman spectroscopy (gas temperature), and OH laser induced fluorescence (flame topology) measurements to study the evolution of the boundary layer structure in the presence of FWI. Experiments are conducted in a side-wall quenching (SWQ) burner. Findings reveal that the reacting boundary layer flow adheres to the linear scaling law u+ = y+ in the viscous sublayer until y+ = 5. Beyond y+ = 5, the flame modifies the velocity and temperature field such that the uz+ streamwise velocity deviates from the viscous sublayer and the law-of-the-wall scaling in the log-layer with uz+ being smaller than that of the non-reacting flow (the subscript z refers to the streamwise coordinate and is used throughout this manuscript). As the fluid approaches the flame impingement location at the wall, the gas temperature increases significantly, causing a threefold increase in kinematic viscosity, ν. Although the near-wall streamwise velocity gradient d&lt;Uz&gt;/dy|y=0 decreases, the larger increase in ν reduces uz+ and leads to the deviation from the law-of-the-wall. Downstream the flame impingement location, ν is relatively constant and uz+ values begin to approach those of the law-of-the-wall. Trends are presented for SWQ and head-on quenching flame topologies, and are intended to help development of more accurate wall models.  </div

    Image simulations of highly magnified clumpy galaxies

    Get PDF
    Strong gravitational lensing is a fundamental tool for studying the high-redshift Universe since the magnification it produces enables it to reach spatial resolutions that would otherwise be unattainable. Background sources placed in proximity to the caustics of a galaxy cluster lead to such a high degree of magnification, that they allow for the observation of regions as small as stellar clusters. This is a crucial process to comprehend the mechanisms responsible for galaxy formation and evolution in the early Universe. In this Thesis, we develop a python-based pipeline aimed at simulating observations of high-redshift clumpy galaxies with three different instruments: HST/ACS, JWST/NIRCAM and Euclid/VIS. These sources are modeled by combining the host galaxy and stellar clumps as multiple luminous components. Each of them is defined using elliptical Sérsic surface brightness profiles. We place these sources near the caustics of five different galaxy clusters in order to generate highly magnified gravitational arcs. This tool is highly flexible, allowing us to change the parameters in order to simulate very diverse sources under different observing conditions. Our simulator, hence, enables us to directly compare the performance of past, present, and future instruments when dealing with sub-kpc substructures. The second part of this work shows two applications of our simulator. Firstly, we focus on the issue of identifying stellar clumps in strongly lensed galaxies. In order to complete this task we rely on the recently developed modeling code GravityFM. We define a procedure to increase the contrast of the visible stellar clumps in images simulated with the abovementioned instruments and we attempt a statistical comparison of the detections. Secondly, we show how the images generated with our pipeline can be combined with other simulators, such as SimCADO image simulator for E-ELT/MICADO, which also includes the support from the Adaptive Optics system MORFEO

    Insights into temperature controls on rockfall occurrence and cliff erosion

    Get PDF
    A variety of environmental triggers have been associated with the occurrence of rockfalls however their role and relative significance remains poorly constrained. This is in part due to the lack of concurrent data on rockfall occurrence and cliff face conditions at temporal resolutions that mirror the variability of environmental conditions, and over durations for large enough numbers of rockfall events to be captured. The aim of this thesis is to fill this data gap, and then to specifically focus on the role of temperature in triggering rockfall that this data illuminates. To achieve this, a long-term multiannual 3D rockfall dataset and contemporaneous Infrared Thermography (IRT) monitoring of cliff surface temperatures has been generated. The approaches used in this thesis are undertaken at East Cliff, Whitby, which is a coastal cliff located in North Yorkshire, UK. The monitored section is ~ 200 m wide and ~65 m high, with a total cliff face area of ~9,592 m². A method for the automated quantification of rockfall volumes is used to explore data collected between 2017–2019 and 2021, with the resulting inventory including > 8,300 rockfalls from 2017–2019 and > 4,100 rockfalls in 2021, totalling > 12,400 number of rockfalls. The analysis of the inventory demonstrates that during dry conditions, increases in rockfall frequency are coincident with diurnal surface temperature fluctuations, notably at sunrise, noon and sunset in all seasons, leading to a marked diurnal pattern of rockfall. Statistically significant relationships are observed to link cliff temperature and rockfall, highlighting the response of rock slopes to absolute temperatures and changes in temperature. This research also shows that inclement weather constitutes the dominant control over the annual production of rockfalls but also quantifies the period when temperature controls are dominant. Temperature-controlled rockfall activity is shown to have an important erosional role, particularly in periods of iterative erosion dominated by small size rockfalls. As such, this thesis provides for the first high-resolution evidence of temperature controls on rockfall activity, cliff erosion and landform development

    Advances and Applications of DSmT for Information Fusion. Collected Works, Volume 5

    Get PDF
    This fifth volume on Advances and Applications of DSmT for Information Fusion collects theoretical and applied contributions of researchers working in different fields of applications and in mathematics, and is available in open-access. The collected contributions of this volume have either been published or presented after disseminating the fourth volume in 2015 in international conferences, seminars, workshops and journals, or they are new. The contributions of each part of this volume are chronologically ordered. First Part of this book presents some theoretical advances on DSmT, dealing mainly with modified Proportional Conflict Redistribution Rules (PCR) of combination with degree of intersection, coarsening techniques, interval calculus for PCR thanks to set inversion via interval analysis (SIVIA), rough set classifiers, canonical decomposition of dichotomous belief functions, fast PCR fusion, fast inter-criteria analysis with PCR, and improved PCR5 and PCR6 rules preserving the (quasi-)neutrality of (quasi-)vacuous belief assignment in the fusion of sources of evidence with their Matlab codes. Because more applications of DSmT have emerged in the past years since the apparition of the fourth book of DSmT in 2015, the second part of this volume is about selected applications of DSmT mainly in building change detection, object recognition, quality of data association in tracking, perception in robotics, risk assessment for torrent protection and multi-criteria decision-making, multi-modal image fusion, coarsening techniques, recommender system, levee characterization and assessment, human heading perception, trust assessment, robotics, biometrics, failure detection, GPS systems, inter-criteria analysis, group decision, human activity recognition, storm prediction, data association for autonomous vehicles, identification of maritime vessels, fusion of support vector machines (SVM), Silx-Furtif RUST code library for information fusion including PCR rules, and network for ship classification. Finally, the third part presents interesting contributions related to belief functions in general published or presented along the years since 2015. These contributions are related with decision-making under uncertainty, belief approximations, probability transformations, new distances between belief functions, non-classical multi-criteria decision-making problems with belief functions, generalization of Bayes theorem, image processing, data association, entropy and cross-entropy measures, fuzzy evidence numbers, negator of belief mass, human activity recognition, information fusion for breast cancer therapy, imbalanced data classification, and hybrid techniques mixing deep learning with belief functions as well

    Interaction of elastomechanics and fluid dynamics in the human heart : Opportunities and challenges of light coupling strategies

    Get PDF
    Das menschliche Herz ist das hochkomplexe Herzstück des kardiovaskulären Systems, das permanent, zuverlässig und autonom den Blutfluss im Körper aufrechterhält. In Computermodellen wird die Funktionalität des Herzens nachgebildet, um Simulationsstudien durchzuführen, die tiefere Einblicke in die zugrundeliegenden Phänomene ermöglichen oder die Möglichkeit bieten, relevante Parameter unter vollständig kontrollierten Bedingungen zu variieren. Angesichts der Tatsache, dass Herz-Kreislauf-Erkrankungen die häufigste Todesursache in den Ländern der westlichen Hemisphäre sind, ist ein Beitrag zur frühzeit- igen Diagnose derselben von großer klinischer Bedeutung. In diesem Zusammenhang können computergestützte Strömungssimulationen wertvolle Einblicke in die Blutflussdynamik liefern und bieten somit die Möglichkeit, einen zentralen Bereich der Physik dieses multiphysikalischen Organs zu untersuchen. Da die Verformung der Endokardoberfläche den Blutfluss antreibt, müssen die Effekte der Elastomechanik als Randbedingungen für solche Strömungssimulationen berücksichtigt werden. Um im klinischen Kontext relevant zu sein, muss jedoch ein Mittelweg zwischen dem Rechenaufwand und der erforderlichen Genauigkeit gefunden werden, und die Modelle müssen sowohl robust als auch zuverlässig sein. Daher werden in dieser Arbeit die Möglichkeiten und Herausforderungen leichter und daher weniger komplexer Kopplungsstrategien mit Schwerpunkt auf drei Schlüsselaspekten bewertet: Erstens wird ein auf dem Immersed Boundary-Ansatz basierender Fluiddynamik-Löser implementiert, da diese Methode mit einer sehr robusten Darstellung von bewegten Netzen besticht. Die grundlegende Funktionalität wurde für verschiedene vereinfachte Geometrien verifiziert und zeigte eine hohe Übereinstimmung mit der jeweiligen analytischen Lösung. Vergleicht man die 3D-Simulation einer realistischen Geometrie des linken Teils des Herzens mit einem körperangepassten Netzbeschreibung, so wurden grundlegende globale Größen korrekt reproduziert. Allerdings zeigten Variationen der Randbedingungen einen großen Einfluss auf die Simulationsergebnisse. Die Anwendung des Lösers zur Simulation des Einflusses von Pathologien auf die Blutströmungsmuster ergab Ergebnisse in guter Übereinstimmung mit Literaturwerten. Bei Simulationen der Mitralklappeninsuffizienz wurde der rückströmende Anteil mit Hilfe einer Partikelverfolgungsmethode visualisiert. Bei hypertropher Kardiomyopathie wurden die Strömungsmuster im linken Ventrikel mit Hilfe eines passiven Skalartransports bewertet, um die lokale Konzentration des ursprünglichen Blutvolumens zu visualisieren. Da in den vorgenannten Studien nur ein unidirektionaler Informationsfluss vom elas- tomechanischen Modell zum Strömungslöser berücksichtigt wurde, wird die Rückwirkung des räumlich aufgelösten Druckfeldes aus den Strömungssimulationen auf die Elastomechanik quantifiziert. Es wird ein sequenzieller Kopplungsansatz eingeführt, um fluiddynamische Einflüsse in einer Schlag-für-Schlag-Kopplungsstruktur zu berücksichtigen. Die geringen Abweichungen im mechanischen Solver von 2 mm verschwanden bereits nach einer Iteration, was darauf schließen lässt, dass die Rückwirkungen der Fluiddynamik im gesunden Herzen begrenzt ist. Zusammenfassend lässt sich sagen, dass insbesondere bei Strömungsdynamiksimula- tionen die Randbedingungen mit Vorsicht gewählt werden müssen, da sie aufgrund ihres großen Einflusses die Anfälligkeit der Modelle erhöhen. Nichtsdestotrotz zeigten verein- fachte Kopplungsstrategien vielversprechende Ergebnisse bei der Reproduktion globaler fluiddynamischer Größen, während die Abhängigkeit zwischen den Lösern reduziert und Rechenaufwand eingespart wird

    Beam scanning by liquid-crystal biasing in a modified SIW structure

    Get PDF
    A fixed-frequency beam-scanning 1D antenna based on Liquid Crystals (LCs) is designed for application in 2D scanning with lateral alignment. The 2D array environment imposes full decoupling of adjacent 1D antennas, which often conflicts with the LC requirement of DC biasing: the proposed design accommodates both. The LC medium is placed inside a Substrate Integrated Waveguide (SIW) modified to work as a Groove Gap Waveguide, with radiating slots etched on the upper broad wall, that radiates as a Leaky-Wave Antenna (LWA). This allows effective application of the DC bias voltage needed for tuning the LCs. At the same time, the RF field remains laterally confined, enabling the possibility to lay several antennas in parallel and achieve 2D beam scanning. The design is validated by simulation employing the actual properties of a commercial LC medium

    Novel 129Xe Magnetic Resonance Imaging and Spectroscopy Measurements of Pulmonary Gas-Exchange

    Get PDF
    Gas-exchange is the primary function of the lungs and involves removing carbon dioxide from the body and exchanging it within the alveoli for inhaled oxygen. Several different pulmonary, cardiac and cardiovascular abnormalities have negative effects on pulmonary gas-exchange. Unfortunately, clinical tests do not always pinpoint the problem; sensitive and specific measurements are needed to probe the individual components participating in gas-exchange for a better understanding of pathophysiology, disease progression and response to therapy. In vivo Xenon-129 gas-exchange magnetic resonance imaging (129Xe gas-exchange MRI) has the potential to overcome these challenges. When participants inhale hyperpolarized 129Xe gas, it has different MR spectral properties as a gas, as it diffuses through the alveolar membrane and as it binds to red-blood-cells. 129Xe MR spectroscopy and imaging provides a way to tease out the different anatomic components of gas-exchange simultaneously and provides spatial information about where abnormalities may occur. In this thesis, I developed and applied 129Xe MR spectroscopy and imaging to measure gas-exchange in the lungs alongside other clinical and imaging measurements. I measured 129Xe gas-exchange in asymptomatic congenital heart disease and in prospective, controlled studies of long-COVID. I also developed mathematical tools to model 129Xe MR signals during acquisition and reconstruction. The insights gained from my work underscore the potential for 129Xe gas-exchange MRI biomarkers towards a better understanding of cardiopulmonary disease. My work also provides a way to generate a deeper imaging and physiologic understanding of gas-exchange in vivo in healthy participants and patients with chronic lung and heart disease
    corecore