2,500 research outputs found

    The shortcomings of semi-local and hybrid functionals: what we can learn from surface science studies

    Full text link
    A study of the adsorption of CO on late 4d and 5d5d transition metal (111) surfaces (Ru, Rh, Pd, Ag, Os, Ir, and Pt) considering atop and hollow site adsorption is presented. The applied functionals include the gradient corrected PBE and BLYP functional, and the corresponding hybrid Hartree-Fock density functionals HSE and B3LYP. We find that PBE based hybrid functionals (specifically HSE) yield, with the exception of Pt, the correct site order on all considered metals, but they also considerably overestimate the adsorption energies compared to experiment. On the other hand, the semi-local BLYP functional and the corresponding hybrid functional B3LYP yield very satisfactory adsorption energies and the correct adsorption site for all surfaces. We are thus faced with a Procrustean problem: the B3LYP and BLYP functionals seem to be the overall best choice for describing adsorption on metal surfaces, but they simultaneously fail to account well for the properties of the metal, vastly overestimating the equilibrium volume and underestimating the atomization energies. Setting out from these observations, general conclusions are drawn on the relative merits and drawbacks of various semi-local and hybrid functionals. The discussion includes a revised version of the PBE functional specifically optimized for bulk properties and surface energies (PBEsol), a revised version of the PBE functional specifically optimized to predict accurate adsorption energies (rPBE), as well as the aforementioned BLYP functional. We conclude that no semi-local functional is capable to describe all aspects properly, and including non-local exchange also only improves some, but worsens other properties.Comment: 12 pages, 6 figures; to be published in New Journal of Physic

    Degradation Models and Optimizations for CMOS Circuits

    Get PDF
    Die Gewährleistung der Zuverlässigkeit von CMOS-Schaltungen ist derzeit eines der größten Herausforderungen beim Chip- und Schaltungsentwurf. Mit dem Ende der Dennard-Skalierung erhöht jede neue Generation der Halbleitertechnologie die elektrischen Felder innerhalb der Transistoren. Dieses stärkere elektrische Feld stimuliert die Degradationsphänomene (Alterung der Transistoren, Selbsterhitzung, Rauschen, usw.), was zu einer immer stärkeren Degradation (Verschlechterung) der Transistoren führt. Daher erleiden die Transistoren in jeder neuen Technologiegeneration immer stärkere Verschlechterungen ihrer elektrischen Parameter. Um die Funktionalität und Zuverlässigkeit der Schaltung zu wahren, wird es daher unerlässlich, die Auswirkungen der geschwächten Transistoren auf die Schaltung präzise zu bestimmen. Die beiden wichtigsten Auswirkungen der Verschlechterungen sind ein verlangsamtes Schalten, sowie eine erhöhte Leistungsaufnahme der Schaltung. Bleiben diese Auswirkungen unberücksichtigt, kann die verlangsamte Schaltgeschwindigkeit zu Timing-Verletzungen führen (d.h. die Schaltung kann die Berechnung nicht rechtzeitig vor Beginn der nächsten Operation abschließen) und die Funktionalität der Schaltung beeinträchtigen (fehlerhafte Ausgabe, verfälschte Daten, usw.). Um diesen Verschlechterungen der Transistorparameter im Laufe der Zeit Rechnung zu tragen, werden Sicherheitstoleranzen eingeführt. So wird beispielsweise die Taktperiode der Schaltung künstlich verlängert, um ein langsameres Schaltverhalten zu tolerieren und somit Fehler zu vermeiden. Dies geht jedoch auf Kosten der Performanz, da eine längere Taktperiode eine niedrigere Taktfrequenz bedeutet. Die Ermittlung der richtigen Sicherheitstoleranz ist entscheidend. Wird die Sicherheitstoleranz zu klein bestimmt, führt dies in der Schaltung zu Fehlern, eine zu große Toleranz führt zu unnötigen Performanzseinbußen. Derzeit verlässt sich die Industrie bei der Zuverlässigkeitsbestimmung auf den schlimmstmöglichen Fall (maximal gealterter Schaltkreis, maximale Betriebstemperatur bei minimaler Spannung, ungünstigste Fertigung, etc.). Diese Annahme des schlimmsten Falls garantiert, dass der Chip (oder integrierte Schaltung) unter allen auftretenden Betriebsbedingungen funktionsfähig bleibt. Darüber hinaus ermöglicht die Betrachtung des schlimmsten Falles viele Vereinfachungen. Zum Beispiel muss die eigentliche Betriebstemperatur nicht bestimmt werden, sondern es kann einfach die schlimmstmögliche (sehr hohe) Betriebstemperatur angenommen werden. Leider lässt sich diese etablierte Praxis der Berücksichtigung des schlimmsten Falls (experimentell oder simulationsbasiert) nicht mehr aufrechterhalten. Diese Berücksichtigung bedingt solch harsche Betriebsbedingungen (maximale Temperatur, etc.) und Anforderungen (z.B. 25 Jahre Betrieb), dass die Transistoren unter den immer stärkeren elektrischen Felder enorme Verschlechterungen erleiden. Denn durch die Kombination an hoher Temperatur, Spannung und den steigenden elektrischen Feldern bei jeder Generation, nehmen die Degradationphänomene stetig zu. Das bedeutet, dass die unter dem schlimmsten Fall bestimmte Sicherheitstoleranz enorm pessimistisch ist und somit deutlich zu hoch ausfällt. Dieses Maß an Pessimismus führt zu erheblichen Performanzseinbußen, die unnötig und demnach vermeidbar sind. Während beispielsweise militärische Schaltungen 25 Jahre lang unter harschen Bedingungen arbeiten müssen, wird Unterhaltungselektronik bei niedrigeren Temperaturen betrieben und muss ihre Funktionalität nur für die Dauer der zweijährigen Garantie aufrechterhalten. Für letzteres können die Sicherheitstoleranzen also deutlich kleiner ausfallen, um die Performanz deutlich zu erhöhen, die zuvor im Namen der Zuverlässigkeit aufgegeben wurde. Diese Arbeit zielt darauf ab, maßgeschneiderte Sicherheitstoleranzen für die einzelnen Anwendungsszenarien einer Schaltung bereitzustellen. Für fordernde Umgebungen wie Weltraumanwendungen (wo eine Reparatur unmöglich ist) ist weiterhin der schlimmstmögliche Fall relevant. In den meisten Anwendungen, herrschen weniger harsche Betriebssbedingungen (z.B. sorgen Kühlsysteme für niedrigere Temperaturen). Hier können Sicherheitstoleranzen maßgeschneidert und anwendungsspezifisch bestimmt werden, sodass Verschlechterungen exakt toleriert werden können und somit die Zuverlässigkeit zu minimalen Kosten (Performanz, etc.) gewahrt wird. Leider sind die derzeitigen Standardentwurfswerkzeuge für diese anwendungsspezifische Bestimmung der Sicherheitstoleranz nicht gut gerüstet. Diese Arbeit zielt darauf ab, Standardentwurfswerkzeuge in die Lage zu versetzen, diesen Bedarf an Zuverlässigkeitsbestimmungen für beliebige Schaltungen unter beliebigen Betriebsbedingungen zu erfüllen. Zu diesem Zweck stellen wir unsere Forschungsbeiträge als vier Schritte auf dem Weg zu anwendungsspezifischen Sicherheitstoleranzen vor: Schritt 1 verbessert die Modellierung der Degradationsphänomene (Transistor-Alterung, -Selbsterhitzung, -Rauschen, etc.). Das Ziel von Schritt 1 ist es, ein umfassendes, einheitliches Modell für die Degradationsphänomene zu erstellen. Durch die Verwendung von materialwissenschaftlichen Defektmodellierungen werden die zugrundeliegenden physikalischen Prozesse der Degradationsphänomena modelliert, um ihre Wechselwirkungen zu berücksichtigen (z.B. Phänomen A kann Phänomen B beschleunigen) und ein einheitliches Modell für die simultane Modellierung verschiedener Phänomene zu erzeugen. Weiterhin werden die jüngst entdeckten Phänomene ebenfalls modelliert und berücksichtigt. In Summe, erlaubt dies eine genaue Degradationsmodellierung von Transistoren unter gleichzeitiger Berücksichtigung aller essenziellen Phänomene. Schritt 2 beschleunigt diese Degradationsmodelle von mehreren Minuten pro Transistor (Modelle der Physiker zielen auf Genauigkeit statt Performanz) auf wenige Millisekunden pro Transistor. Die Forschungsbeiträge dieser Dissertation beschleunigen die Modelle um ein Vielfaches, indem sie zuerst die Berechnungen so weit wie möglich vereinfachen (z.B. sind nur die Spitzenwerte der Degradation erforderlich und nicht alle Werte über einem zeitlichen Verlauf) und anschließend die Parallelität heutiger Computerhardware nutzen. Beide Ansätze erhöhen die Auswertungsgeschwindigkeit, ohne die Genauigkeit der Berechnung zu beeinflussen. In Schritt 3 werden diese beschleunigte Degradationsmodelle in die Standardwerkzeuge integriert. Die Standardwerkzeuge berücksichtigen derzeit nur die bestmöglichen, typischen und schlechtestmöglichen Standardzellen (digital) oder Transistoren (analog). Diese drei Typen von Zellen/Transistoren werden von der Foundry (Halbleiterhersteller) aufwendig experimentell bestimmt. Da nur diese drei Typen bestimmt werden, nehmen die Werkzeuge keine Zuverlässigkeitsbestimmung für eine spezifische Anwendung (Temperatur, Spannung, Aktivität) vor. Simulationen mit Degradationsmodellen ermöglichen eine Bestimmung für spezifische Anwendungen, jedoch muss diese Fähigkeit erst integriert werden. Diese Integration ist eines der Beiträge dieser Dissertation. Schritt 4 beschleunigt die Standardwerkzeuge. Digitale Schaltungsentwürfe, die nicht auf Standardzellen basieren, sowie komplexe analoge Schaltungen können derzeit nicht mit analogen Schaltungssimulatoren ausgewertet werden. Ihre Performanz reicht für solch umfangreiche Simulationen nicht aus. Diese Dissertation stellt Techniken vor, um diese Werkzeuge zu beschleunigen und somit diese umfangreichen Schaltungen simulieren zu können. Diese Forschungsbeiträge, die sich jeweils über mehrere Veröffentlichungen erstrecken, ermöglichen es Standardwerkzeugen, die Sicherheitstoleranz für kundenspezifische Anwendungsszenarien zu bestimmen. Für eine gegebene Schaltungslebensdauer, Temperatur, Spannung und Aktivität (Schaltverhalten durch Software-Applikationen) können die Auswirkungen der Transistordegradation ausgewertet werden und somit die erforderliche (weder unter- noch überschätzte) Sicherheitstoleranz bestimmt werden. Diese anwendungsspezifische Sicherheitstoleranz, garantiert die Zuverlässigkeit und Funktionalität der Schaltung für genau diese Anwendung bei minimalen Performanzeinbußen

    Models of self-peptide sampling by developing T cells identify candidate mechanisms of thymic selection

    Get PDF
    Conventional and regulatory T cells develop in the thymus where they are exposed to samples of self-peptide MHC (pMHC) ligands. This probabilistic process selects for cells within a range of responsiveness that allows the detection of foreign antigen without excessive responses to self. Regulatory T cells are thought to lie at the higher end of the spectrum of acceptable self-reactivity and play a crucial role in the control of autoimmunity and tolerance to innocuous antigens. While many studies have elucidated key elements influencing lineage commitment, we still lack a full understanding of how thymocytes integrate signals obtained by sampling self-peptides to make fate decisions. To address this problem, we apply stochastic models of signal integration by T cells to data from a study quantifying the development of the two lineages using controllable levels of agonist peptide in the thymus. We find two models are able to explain the observations; one in which T cells continually re-assess fate decisions on the basis of multiple summed proximal signals from TCR-pMHC interactions; and another in which TCR sensitivity is modulated over time, such that contact with the same pMHC ligand may lead to divergent outcomes at different stages of development. Neither model requires that T and T are differentially susceptible to deletion or that the two lineages need qualitatively different signals for development, as have been proposed. We find additional support for the variable-sensitivity model, which is able to explain apparently paradoxical observations regarding the effect of partial and strong agonists on T and T development

    Chemisorption theory

    Get PDF

    Chemisorption theory

    Get PDF

    Timely Autumn Seeding of Annual Ryegrass Is Essential for High Yield

    Get PDF
    The use of annual ryegrass (Lolium multiflorum Lam.) as a winter cover crop and grazing option in the Southeast Unit-ed States has become a common practice. Recent research evaluating the effects of seeding time on seed yield in Canada determined autumn seeding produces the most desired results relative spring seeding, but indicated that varied autumn seeding rates would further their findings (Coulman et al. 2013). A University of Arkansas study utilized cool season annuals, wheat (Triticum aestivum L.) and annual ryegrass, to evaluate animal performance and seeding date effects. This research indicated that seeding cool-season annuals in early September may result in greater autumn forage production relative late October seeding. (Coffey et al. 2013). While current recommendations in the Southeast United States are to plant annual ryegrass in early autumn, differences among dates and locations have not been evaluated to maximize yield and provide the best forage utilization for producers. The objective of the study is to develop extension recommendations for autumn date seeding of annual ryegrass for maximum seasonal yield potential

    PoliMedia - Improving Analyses of Radio, TV & Newspaper Coverage of Political Debates

    Get PDF
    Abstract. Analysing media coverage across several types of media-outlets is a challenging task for academic researchers. The PoliMedia project aimed to showcase the potential of cross-media analysis by linking the digitised transcriptions of the debates at the Dutch Parliament (Dutch Hansard) with three media-outlets: 1) newspapers in their original layout of the historical newspaper archive at the National Library, 2) radio bulletins of the Dutch National Press Agency (ANP) and 3) newscasts and current affairs programs from the Netherlands Institute for Sound and Vision. In this paper we describe generally how these links were created and we introduce the PoliMedia search user interface developed for scholars to navigate the links. In evaluation it was found that the linking algorithm had a recall of 67% and precision of 75%. Moreover, in an eye tracking evaluation we found that the interface enabled scholars to perform known-item and exploratory searches for qualitative analysis

    Dynamical probes of chemical interactions at interfaces

    Get PDF
    We report on the application of two experimental techniques developed in the field of atomic and molecular physics to investigate the dynamics of catalytic processes on a molecular scale in (model) cata!ysts. With these techniques, time-resolved pump-probe laser spectroscopy and molecular beam scattering, better insights into the fundamental processes relevant to catalysis can be obtained. With the first technique, time-resolved (picosecond) non-linear infared spectroscopy, zeolite catalysts and zeolite-adsorbate interactions are investigated. Microscopic structural information on the bare catalyst, as well as insights into the dynamics of interaction processes between catalyst and reactant (viz. zeolite and adsorbate) on a molecular scale are obtained. With the second technique, a molecular beam experiment, we obtain dynamical information on the interaction between catalytic metal surfaces and molecules; transient surface species and steric effects are observed
    corecore