239 research outputs found
Die Arktische Oszillation im Kieler Klimamodell
The Arctic Oscillation (AO) is the dominant mode of variability of the mean sea level pressure (MSLP) in the Northern hemisphere. It is a result of an EOF-analysis for SLP3 anomalies during winter. Because of a decisive influence of the AO on atmospheric processes in the troposphere and stratosphere (Randall et al., 2007), it is of interest how the AO behaves during changing climatological conditions. Therefore three runs of the Kiel Climate Model (KCM) will be analyzed considering the AO: a control run with pre-industrial CO2-level, an A1B scenario and a scenario in which the CO2-level will change by one percent per year until a doubling of the pre-industrial CO2-level is reached ongoing with a stabilization period. Comparing the AO of the control run with the AO of the CO2-forced run the result reaches an equal anomaly in the Arctic centre. By contrast the variability in the western North Atlantic Ocean is sinking while it is clearly rising in the North Pacific Ocean. Additionally the second EOF indicates an increasing variability in the Pacific Ocean, while it is also presenting a higher degree regarding the overall variability. As a result of the temporal evolution of the AO, calculated for the control run, in the forced scenario there is a distinctive positive trend in the AO-Index. This implies a lower SLP than the average in the Arctic. In order to classify the results of the KCM, the AO of the A1B scenario in the period of 1950 to 1999 of the KCM is compared to results simulated by the Intergovernmental Panel on Climate Change Fourth Assessment Report (IPCC AR4) ensembles of 14 coupled atmosphere-ocean-models, the resulting Multi-Model and observed data with regard to Miller et al. (2006). The observed data indicate as well as the A1B scenario of the KCM and the Multi-Model a positive trend in the AO-Index but the magnitude is varying. The results of the spatial distribution of the variability are showing a strong dispersion in between the models. The variability in the North Pacific Ocean is overestimated in the KCM as it is in most of the other models as well. Furthermore the AO indicates, with regard to the other IPCC models, a high agreement with the observed data in the Arctic centre and the Atlantic area
Southern Ocean warming: Increase in basal melting and grounded ice loss
We apply a global finite element sea ice/ice shelf/ocean model (FESOM) to the Antarctic marginal seas to analyze projections of ice shelf basal melting in a warmer climate. The model is forced with the atmospheric output from two climate models: (1) the Hadley Centre Climate Model (HadCM3) and (2) Max Planck Institute’s ECHAM5/MPI-OM. Results from their 20th-century simulations are used to evaluate the modeled present-day ocean state. Sea-ice coverage is largely realistic in both simulations. Modeled ice shelf basal melt rates compare well with observations in both cases, but are consistently smaller for ECHAM5/MPI-OM. Projections for future ice shelf basal melting are computed using atmospheric output for IPCC scenarios E1 and A1B. While trends in sea ice coverage, ocean heat content, and ice shelf basal melting are small in simulations forced with ECHAM5 data, a substantial shift towards a warmer regime is found in experiments forced with HadCM3 output. A strong sensitivity of basal melting to increased ocean temperatures is found for the ice shelves in the Amundsen Sea. For the cold-water ice shelves in the Ross and Weddell Seas,decreasing convection on the continental shelf in the HadCM3 scenarios leads to an erosion of the continental slope front and to warm water of open ocean origin entering the continental shelf. As this water reaches deep into the Filchner-Ronne Ice Shelf (FRIS) cavity, basal melting increases by a factor of three to six compared to the present value of about 100 Gt/yr. Highest melt rates at the deep FRIS grounding line causes a retreat of > 200km, equivalent to an land ice loss of 110 Gt/yr
Ableitung kumulativer Dosismodelle zur Auswertung physischer Belastungen
Zusammenfassung
Hintergrund
Als vertiefende Reanalyse der Deutschen Wirbelsäulenstudie (DWS1) versucht die DWS-Richtwertestudie die Ableitung von kumulativen Dosismodellen, mit denen der Dosis-Wirkung-Zusammenhang zwischen bandscheibenbedingten Erkrankungen an der Lendenwirbelsäule und physischen Belastungen im Sinne der Berufskrankheit Nr. 2108 der Berufskrankheiten-Verordnung (BKV) für Männer und Frauen beschrieben werden kann. Drei besondere Herausforderungen ergeben sich für die statistische Analyse: 1. Dosimetrie: Das optimale Dosismodell ist unbekannt. Kandidatenmodelle variieren weit mit angesetzten „Schwellen“ für die Rumpfvorneigung, die Lendenwirbelsäulen-Bandscheiben-Druckkraft und die Tagesdosis. (Erst ab der jeweiligen Schwelle werden die Belastungsanteile bei der Dosisbestimmung mit quadratischer Kraftwichtung relativ zur Vorgangsdauer und „Vollwertberücksichtigung“ der Bandscheibendruckkraft einbezogen.) 2. Epidemiologie: Die Form des optimalen Risikomodells [stetige „Odds-ratio“(OR)-Kurve] über der Lebensdosis ist unbekannt und kann komplex sein (z. B. „W-Form“); dies führt zu einer großen Zahl an Kandidatenmodellen. 3. Richtwertermittlung: Auf Basis der Risikoanalyse soll geprüft werden, ob eine Verdopplungsdosis mit 95 %-Konfidenzintervall abgeleitet werden kann, also die Lebensdosis, die mit einer Verdopplung des Erkrankungsrisikos einhergeht.
Material und Methoden
Es wurde eine 2-schrittige Multi-Modell-Analyse (MMA) mit informationsgestützter Modellmittelung durchgeführt. Zu allen sinnvollen Kombinationen der Dosismodelleigenschaften werden als Risikomodelle multivariable fraktionale Polynome (FP) 2. und 4. Grades berechnet. Deren Anpassungsgüte wird mit dem Akaike-Informations-Kriterium (AIC) gemessen. Im 1. Schritt der MMA werden für jede Eigenschaft separat optimale Schwellenwerte durch gewichtete Mittelung bestimmt; hierbei wird als Gewicht der relative Informationsgehalt des jeweiligen FP verwendet (Akaike-Gewicht). Diese optimalen Schwellenwerte werden dann eingesetzt, um ein Kombinationsdosismodell zu ermitteln, dessen Werte als Referenzdosis (Bezugsabszisse) für alle weiteren Analysen dienen. Über dieser Referenzdosis werden in einem 2. Schritt der MMA alle kontinuierlichen Regressionskurven und deren Konfidenzbänder Akaike-gewichtet gemittelt (Mittelung der Modellprädiktoren für jedes Individuum) und auf ein OR = 1 bei einer Dosis = 0 bezogen. Die so ermittelten OR-Schätzer werden mit FP 4. Grades geglättet, um finale stetige OR-Kurven über der Referenzdosis mit 95 %-Konfidenzintervallen zu erhalten. Aus diesen Kurven werden durch Umkehrung die Verdopplungsdosis und ein zugehöriges Konfidenzintervall geschätzt.
Ergebnisse
Die MMA wird auf alle 4 Fallgruppen (FG; 2 Geschlechter, 2 Endpunkte: Prolaps und Chondrose) erfolgreich angewendet. Die Methodik wird an FG 1 (Männer/Prolaps) demonstriert.
Schlussfolgerung
Bei fehlenden oder strittigen biologischen A-priori-Kriterien zur Spezifizierung des optimalen dosimetrischen oder epidemiologischen Modells stellt die MMA einen Lösungsweg dar.
</jats:sec
Grundstrukturen eines nachhaltigen Wohlfahrtsmodells und Implikationen für die Politik
Die hier vorgestellten Überlegungen nehmen direkt Bezug auf die im Zuge der projektinternen Synopse identifizierten Unzulänglichkeiten aktuell diskutierter Wohlfahrts- und grüner Wachstumskonzepte in ihrem Verhältnis zu dem bislang in der Bundesrepublik Deutschland etablierten Wohlfahrtsmodell einer sozialen Marktwirtschaft, welche im Sinne von ökologischer, ökonomischer und gesellschaftlicher Nachhaltigkeit zu unterkomplex sind. Vor diesem Hintergrund wurde innerhalb des Forschungsvorhabens ein erweitertes Entscheidungsmodell entwickelt, welches auch die kritischen Hinweise aus zwei projektbegleitenden Expertenworkshops berücksichtigt und Eckpunkte zur Entwicklung eines nachhaltigen Wohlfahrtskonzeptes liefert, das im Rahmen der Umweltpolitik als politisches Handlungskonzept genutzt werden kann. Aus dem zugrundeliegenden Entscheidungsmodell zur Bewertung von Handlungsalternativen einer nachhaltigen Umweltpolitik werden Forderungen zur Positionierung an die Politik in sechs Punkten abgeleitet
Final report on marginal abatement cost curves for the evaluation of the market stability reserve
Computable general equilibrium (CGE) models are wide-spread tools for policy evaluation in the national and international context. They typically feature a detailed representation of productive industries and can track the impacts of price based policies or scarcity of production factors across the economy. Calibrated to benchmark equilibria given in form of social accounting matrices (SAMs), they represent both production and the consumer basket as nested constant elasticity of substitution (CES) functions. Positive elasticities of substitution in the production functions give industries (or representative households) the possibility to react to price changes by increasing demand of cheaper inputs and demanding less of the more expensive goods for the production of any unit of output (or utility). Production sectors adjust their activity levels such that they make zero economic profit, and representative consumers spend on consumption such that their income balances expenditures (which thus include saving). Market balance conditions for each commodity in the model set the prices such that demand and supply at those prices clear
NAO und Vorhersagbarkeit / NAO and predictability
Ein Überblick über die Güte heutiger NAO-Vorhersagen und Vorhersagbarkeit der NAO an sich wird gegeben.
Der Einfluss der wesentlichen Prozesse auf die Vorhersagegüte auf saisonal-interannualen und dekadischen Zeitskalen
wird zusammengetragen. Auf den saisonal-interannualen Zeitskalen ist vor allem die Wärmekapazität und
der Wärmetransport der oberen Schichten des Nordatlantik von Bedeutung für den Anstieg der NAO-Vorhersagegüte.
Statistische Modelle sowie gekoppelte Atmosphäre-Ozean-Ensemble-Vorhersagesysteme weisen für die
beiden letzten Dekaden des 20 Jahrhunderts eine Vorhersagegüte von etwa 15 % auf. Die Vorhersagegüte über die
letzten 50 Jahre liegt jedoch unter 10 %. Auf dekadischen Zeitskalen bildet die atlantische meridionale Umwälzbewegung
eine Grundlage für die Vorhersagen des dekadischen Klimas in der atlantischen Region.
A review of the NAO prediction and predictability is given. The impact of basic processes governing the NAO variability
and their feasibility to enhance prediction skill on seasonal-to-interannual and decadal timescales is investigated.
On seasonal-to-interannual timescales heat content and transport of the North Atlantic upper layer ocean
can be essential to increase winter NAO prediction skill. Statistical models and coupled atmosphere-ocean ensemble
prediction systems suggest a positive skill of about 15% for the latest decades in the 20th century. The prediction
skill for the last 50 years, however, is below 10%. On decadal timescales particularly the meridional overturning
circulation provides the basis for forecasts of the decadal climate over the North Atlantic region
Effiziente Unsicherheitsquantifizierung in der Akustik mittels eines Multi-Modell-Verfahrens
Die Arbeit im Bereich der Akustik ist, wie in vielen anderen Fachdisziplinen, vom Einsatz numerischer Berechnungsmethoden geprägt. Das wahrscheinlich am weitesten verbreitete Verfahren zur Lösung partieller Differentialgleichungen ist die Finite-Elemente-Methode (FEM). Die FEM gehört zur Klasse der Diskretisierungsverfahren. Trotz stetig steigender Leistung der verwendeten Computer sind numerische Berechnungen mit Diskretisierungsverfahren weiterhin speicher- und zeitintensiv. Daher haben sich Modellreduktionsverfahren zur Beschleunigung der Berechnung etabliert. Der Einsatz in der Akustik stellt dabei besondere Herausforderungen, die durch existierende Verfahren nur unzureichend adressiert werden. Vor allem für Berechnungen großer Strukturen im hohen Frequenzbereich erzielen die etablierten Verfahren eine geringe Reduktion des Berechnungsaufwands. Der für Berechnungen erforderliche Modellierungsprozess ist nicht eindeutig, für eine Fragestellung sind häufig mehrere Modelle verwendbar. Die Modelle unterscheiden sich hinsichtlich ihrer Ergebnisqualität und des zur Lösung erforderlichen Berechnungsaufwands. Häufig korrelieren diese Größen. Für Berechnungen mit der FEM im Frequenzbereich hängt die Einsetzbarkeit der zur Verfügung stehenden Modelle häufig von der Frequenz ab. Bei vielen verfügbaren Modellen kann somit für einzelne Frequenzbereiche jeweils das Modell verwendet werden, das bei geringstem Berechnungsaufwand eine ausreichende Ergebnisqualität bietet. Dies ist die Idee der vorliegenden Arbeit. Die vorliegende Arbeit entwickelt ein Multi-Modell-Verfahren speziell für Anwendungen in der Akustik. Das Verfahren ermöglicht den Einsatz vereinfachter Modelle gemeinsam mit einem zu lösenden Referenzmodell zur Lösung einer gegebenen Berechnungsaufgabe. Das Referenzmodell ist dasjenige Modell, von dem im gesamten Frequenzbereich eine ausreichende Ergebnisqualität erwartet wird. Die zur Verfügung stehenden vereinfachten Modelle werden gegen das Referenzmodell validiert. Ein Kernaspekt des entwickelten Verfahrens ist die Entwicklung des dazu verwendeten Validierungsprozesses. Für den Fall einer erfolgreichen Validierung wird das Referenzmodell durch das vereinfachte Modell ersetzt. Eine Budgetplanung quantifiziert die Kosten zur Lösung der Modelle und setzt diese so ein, dass eine Rechenzeitersparnis erreicht wird. Das entwickelte Verfahren wird für verschiedene Klassen vereinfachter Modelle verifiziert. Dazu werden vereinfachte Modelle auf verschiedenen Abstraktionsebenen des Modellierungsprozesses aus dem Referenzmodell abgeleitet. Dies sind das Realitätsmodell, das mathematische und das numerische Modell. Für vereinfachte Modelle, die durch Variation des numerischen Modells erzeugt werden, erzielt das Verfahren gute Ergebnisse. Es wird eine Rechenzeitersparnis bei einem akzeptablen Fehler der approximierten Systemantwort erreicht. Weiterhin kann gezeigt werden, dass die erzielbare Rechenzeitersparnis mit dem resultierenden Fehler korreliert. Das Verfahren ermöglicht somit die Abwägung zwischen einer genauen, langsamen Lösung und einer schnellen Näherungslösung. Nach der Verifikation wird das auf entwickelte Multi-Modell-Verfahren stochastische Untersuchungen mit der Monte Carlo-Methode und der globalen Sensitivitätsanalyse angewendet. Für diese Vielfachauswertungs-Anwendungen wird eine zusätzliche Rechenzeitersparnis erzielt, da die erforderlichen Validierungsprozesse ab der zweiten Berechnung entfallen können. Auch für diese Anwendungsfälle werden die zu berechnenden Größen, die statistischen Eigenschaften der Ausgangsgröße, mit einem geringen Fehler ermittelt. Insgesamt steht mit dem entwickelten Multi-Modell-Verfahren ein Ansatz zur Verfügung, mit dem die numerische Berechnung mit der FEM beschleunigt werden kann. Aufgrund der Berücksichtigung der Anforderungen numerischer Berechnungen von Wellenausbreitung mit Diskretisierungsverfahren ist es besonders für den Einsatz in der Akustik geeignet
Wie lassen sich NoSQL- und Cloud-Datenbanken in Praktikumseinheiten effizient integrieren?
Es besteht der Bedarf, die Themen NoSQL- und Cloud-Datenbanken in Praktika zu initigrieren. Das Ziel dieser Arbeit soll die Fragestellung beantworten, wie die Technologien NoSQL- und Cloud- Datenbanken in einem zeitlich begrenzten Praktikum gelehrt werden können. Hierfür muss festgestellt werden, welche spezifischen Technologien am besten geeignet sind und wie diese effizient in ein Praktikum integriert werden können.
Es konnten für verschiedene NoSQL-Datenbankmodelle Empfehlungen für Datenbanken erstellt werden. Die größten Cloud-Datenbanken wurden miteinander verglichen hinsichtlich der Nutzung in einem Praktikum. Des Weiteren wurden Virtualisierung, Container und Multi-Modell-Datenbanken auf die Anwendung in ein Praktikum geprüft
- …
