29 research outputs found

    Minimal Basis Iterative Stockholder: Atoms in Molecules for Force-Field Development

    Full text link
    Atomic partial charges appear in the Coulomb term of many force-field models and can be derived from electronic structure calculations with a myriad of atoms-in-molecules (AIM) methods. More advanced models have also been proposed, using the distributed nature of the electron cloud and atomic multipoles. In this work, an electrostatic force field is defined through a concise approximation of the electron density, for which the Coulomb interaction is trivially evaluated. This approximate "pro-density" is expanded in a minimal basis of atom-centered s-type Slater density functions, whose parameters are optimized by minimizing the Kullback-Leibler divergence of the pro-density from a reference electron density, e.g. obtained from an electronic structure calculation. The proposed method, Minimal Basis Iterative Stockholder (MBIS), is a variant of the Hirshfeld AIM method but it can also be used as a density-fitting technique. An iterative algorithm to refine the pro-density is easily implemented with a linear-scaling computational cost, enabling applications to supramolecular systems. The benefits of the MBIS method are demonstrated with systematic applications to molecular databases and extended models of condensed phases. A comparison to 14 other AIM methods shows its effectiveness when modeling electrostatic interactions. MBIS is also suitable for rescaling atomic polarizabilities in the Tkatchenko-Sheffler scheme for dispersion interactions.Comment: 61 pages, 12 figures, 2 table

    Most probable transition paths in piecewise-smooth stochastic differential equations

    Full text link
    We develop a path integral framework for determining most probable paths in a class of systems of stochastic differential equations with piecewise-smooth drift and additive noise. This approach extends the Freidlin-Wentzell theory of large deviations to cases where the system is piecewise-smooth and may be non-autonomous. In particular, we consider an nn-dimensional system with a switching manifold in the drift that forms an (n1)(n-1)-dimensional hyperplane and investigate noise-induced transitions between metastable states on either side of the switching manifold. To do this, we mollify the drift and use Γ\Gamma-convergence to derive an appropriate rate functional for the system in the piecewise-smooth limit. The resulting functional consists of the standard Freidlin-Wentzell rate functional, with an additional contribution due to times when the most probable path slides in a crossing region of the switching manifold. We explore implications of the derived functional through two case studies, which exhibit notable phenomena such as non-unique most probable paths and noise-induced sliding in a crossing region.Comment: 38 pages, 9 figure

    Advanced Numerical Modelling of Discontinuities in Coupled Boundary ValueProblems

    Get PDF
    Industrial development processes as well as research in physics, materials and engineering science rely on computer modelling and simulation techniques today. With increasing computer power, computations are carried out on multiple scales and involve the analysis of coupled problems. In this work, continuum modelling is therefore applied at different scales in order to facilitate a prediction of the effective material or structural behaviour based on the local morphology and the properties of the individual constituents. This provides valueable insight into the structure-property relations which are of interest for any design process. In order to obtain reasonable predictions for the effective behaviour, numerical models which capture the essential fine scale features are required. In this context, the efficient representation of discontinuities as they arise at, e.g. material interfaces or cracks, becomes more important than in purely phenomenological macroscopic approaches. In this work, two different approaches to the modelling of discontinuities are discussed: (i) a sharp interface representation which requires the localisation of interfaces by the mesh topology. Since many interesting macroscopic phenomena are related to the temporal evolution of certain microscopic features, (ii) diffuse interface models which regularise the interface in terms of an additional field variable and therefore avoid topological mesh updates are considered as an alternative. With the two combinations (i) Extended Finite Elemente Method (XFEM) + sharp interface model, and (ii) Isogeometric Analysis (IGA) + diffuse interface model, two fundamentally different approaches to the modelling of discontinuities are investigated in this work. XFEM reduces the continuity of the approximation by introducing suitable enrichment functions according to the discontinuity to be modelled. Instead, diffuse models regularise the interface which in many cases requires even an increased continuity that is provided by the spline-based approximation. To further increase the efficiency of isogeometric discretisations of diffuse interfaces, adaptive mesh refinement and coarsening techniques based on hierarchical splines are presented. The adaptive meshes are found to reduce the number of degrees of freedom required for a certain accuracy of the approximation significantly. Selected discretisation techniques are applied to solve a coupled magneto-mechanical problem for particulate microstructures of Magnetorheological Elastomers (MRE). In combination with a computational homogenisation approach, these microscopic models allow for the prediction of the effective coupled magneto-mechanical response of MRE. Moreover, finite element models of generic MRE microstructures are coupled with a BEM domain that represents the surrounding free space in order to take into account finite sample geometries. The macroscopic behaviour is analysed in terms of actuation stresses, magnetostrictive deformations, and magnetorheological effects. The results obtained for different microstructures and various loadings have been found to be in qualitative agreement with experiments on MRE as well as analytical results.Industrielle Entwicklungsprozesse und die Forschung in Physik, Material- und Ingenieurwissenschaft greifen in einem immer stärkeren Umfang auf rechnergestützte Modellierungs- und Simulationsverfahren zurück. Die ständig steigende Rechenleistung ermöglicht dabei auch die Analyse mehrskaliger und gekoppelter Probleme. In dieser Arbeit kommt daher ein kontinuumsmechanischer Modellierungsansatz auf verschiedenen Skalen zum Einsatz. Das Ziel der Berechnungen ist dabei die Vorhersage des effektiven Material- bzw. Strukturverhaltens auf der Grundlage der lokalen Werkstoffstruktur und der Eigenschafen der konstitutiven Bestandteile. Derartige Simulationen liefern interessante Aussagen zu den Struktur-Eigenschaftsbeziehungen, deren Verständnis entscheidend für das Material- und Strukturdesign ist. Um aussagekräftige Vorhersagen des effektiven Verhaltens zu erhalten, sind numerische Modelle erforderlich, die wesentliche Eigenschaften der lokalen Materialstruktur abbilden. Dabei kommt der effizienten Modellierung von Diskontinuitäten, beispielsweise Materialgrenzen oder Rissen, eine deutlich größere Bedeutung zu als bei einer makroskopischen Betrachtung. In der vorliegenden Arbeit werden zwei unterschiedliche Modellierungsansätze für Unstetigkeiten diskutiert: (i) eine scharfe Abbildung, die üblicherweise konforme Berechnungsnetze erfordert. Da eine Evolution der Mikrostruktur bei einer derartigen Modellierung eine Topologieänderung bzw. eine aufwendige Neuvernetzung nach sich zieht, werden alternativ (ii) diffuse Modelle, die eine zusätzliche Feldvariable zur Regularisierung der Grenzfläche verwenden, betrachtet. Mit der Kombination von (i) Erweiterter Finite-Elemente-Methode (XFEM) + scharfem Grenzflächenmodell sowie (ii) Isogeometrischer Analyse (IGA) + diffuser Grenzflächenmodellierung werden in der vorliegenden Arbeit zwei fundamental verschiedene Zugänge zur Modellierung von Unstetigkeiten betrachtet. Bei der Diskretisierung mit XFEM wird die Kontinuität der Approximation durch eine Anreicherung der Ansatzfunktionen gemäß der abzubildenden Unstetigkeit reduziert. Demgegenüber erfolgt bei einer diffusen Grenzflächenmodellierung eine Regularisierung. Die dazu erforderliche zusätzliche Feldvariable führt oft zu Feldgleichungen mit partiellen Ableitungen höherer Ordnung und weist in ihrem Verlauf starke Gradienten auf. Die daraus resultierenden Anforderungen an den Ansatz werden durch eine Spline-basierte Approximation erfüllt. Um die Effizienz dieser isogeometrischen Diskretisierung weiter zu erhöhen, werden auf der Grundlage hierarchischer Splines adaptive Verfeinerungs- und Vergröberungstechniken entwickelt. Ausgewählte Diskretisierungsverfahren werden zur mehrskaligen Modellierung des gekoppelten magnetomechanischen Verhaltens von Magnetorheologischen Elastomeren (MRE) angewendet. In Kombination mit numerischen Homogenisierungsverfahren, ermöglichen die Mikrostrukturmodelle eine Vorhersage des effektiven magnetomechanischen Verhaltens von MRE. Außerderm wurden Verfahren zur Kopplung von FE-Modellen der MRE-Mikrostruktur mit einem Randelement-Modell der Umgebung vorgestellt. Mit Hilfe der entwickelten Verfahren kann das Verhalten von MRE in Form von Aktuatorspannungen, magnetostriktiven Deformationen und magnetischen Steifigkeitsänderungen vorhergesagt werden. Im Gegensatz zu zahlreichen anderen Modellierungsansätzen, stimmen die mit den hier vorgestellten Methoden für unterschiedliche Mikrostrukturen erzielten Vorhersagen sowohl mit analytischen als auch experimentellen Ergebnissen überein

    Symmetries and the methods of quantum field theory: Supersymmetry on a space-time lattice

    Get PDF
    In der vorliegenden Arbeit sind die grundlegenden Konsequenzen, die sich durch die Anwendung verschiedener Methoden der Quantenfeldtheorie auf supersymmetrische Modelle ergeben, untersucht worden. Dabei ging es vor allem um die etablierte Methode der Gittersimulationen. Die dafür nötige Diskretisierung bricht die Supersymmetrie. Die wichtigste Ursache dieser Brechung ist die Versetzung der Leibnizregel durch einen beliebigen diskretisierten Ableitungsoperator. Es konnte gezeigt werden, daß diese Brechung nur mit einem nicht-lokalen Ableitungsoperator wie der SLAC-Ableitung und einen nicht-lokalen Wechselwirkungsterm beseitigt werden kann. Eine weitere Ursache für die Brechung der Supersymmetrie entsteht bei der Anwendung von Standardmethoden zur Konstruktion einer lokalen Gitterwirkung. Im Rahmen dieser Verfahren wird, um eine effektive Verdopplung der Freiheitsgrade zu verhindern, ein zusätzlicher Massenterm (Wilson-Terms) für die Fermionen eingeführt. Die Beiträge dieses Massenterms fehlen im bosonischen Bereich. Schon in der ein-loop Gitter-Störungstheorie sieht man, daß diese Brechung der Supersymmetrie nicht wieder hergestellt werden kann. Dies geschieht obwohl der klassische Beitrag des Wilson-Terms verschwindet. Deshalb muß dieser zusätzliche Massenterm auch konsistent auf den bosonischen Sektor übertragen werden. Nur so kann man einen supersymmetrischen Kontinuumslimes erreichen. In nicht-lokalen Formulierungen tritt auch dieses Problem nicht auf. Insgesamt ermöglichen die nicht-lokalen Gitterformulierungen eine Sicherstellung der Supersymmetrie. Im Rahmen der Gitterstörungstheorie zeigt sich, daß die Lokalität in niedrigdimensionalen Modellen im Kontinuumslimes wiederhergestellt wird

    Some models are useful, but how do we know which ones? Towards a unified Bayesian model taxonomy

    Full text link
    Probabilistic (Bayesian) modeling has experienced a surge of applications in almost all quantitative sciences and industrial areas. This development is driven by a combination of several factors, including better probabilistic estimation algorithms, flexible software, increased computing power, and a growing awareness of the benefits of probabilistic learning. However, a principled Bayesian model building workflow is far from complete and many challenges remain. To aid future research and applications of a principled Bayesian workflow, we ask and provide answers for what we perceive as two fundamental questions of Bayesian modeling, namely (a) "What actually is a Bayesian model?" and (b) "What makes a good Bayesian model?". As an answer to the first question, we propose the PAD model taxonomy that defines four basic kinds of Bayesian models, each representing some combination of the assumed joint distribution of all (known or unknown) variables (P), a posterior approximator (A), and training data (D). As an answer to the second question, we propose ten utility dimensions according to which we can evaluate Bayesian models holistically, namely, (1) causal consistency, (2) parameter recoverability, (3) predictive performance, (4) fairness, (5) structural faithfulness, (6) parsimony, (7) interpretability, (8) convergence, (9) estimation speed, and (10) robustness. Further, we propose two example utility decision trees that describe hierarchies and trade-offs between utilities depending on the inferential goals that drive model building and testing

    Understanding new regimes for light-matter interactions

    Get PDF
    Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2011.Cataloged from PDF version of thesis.Includes bibliographical references (p. 179-194).This thesis focuses on achieving new understanding of the principles and phenomena involved in the interaction of light with a variety of complicated material systems, including biomaterials and nanostructured materials. We will show that bone piezoelectricity may be a source of intense blast-induced electric fields in the brain, with magnitudes and timescales comparable to fields with known neurological effects, and may play a role in blast-induced traumatic brain injury. We will also shed new light on the localization of photons in a variety of complex microstructured waveguides. We will reveal the principles behind the design of single-polarization waveguides, including design strategies that did not seem to have been considered previously. Finally, we designed a 3D photonic crystal slab structure to exhibit negative-index behavior at visible wavelengths, which was fabricated and experimentally demonstrated by our collaborators to show negative refraction with, to our knowledge, the lowest loss at visible wavelengths to date.by Ka Yan Karen Lee.Ph.D
    corecore