2,711 research outputs found
Participation in multicriteria decision support - the case of conflicting water allocation in the Spree River basin
This discussion paper presents the Integrated Methodological Approach for participatory multi-criteria decision support under uncertainty (IMA), which emerged from the debates about participation, multi-criteria analysis (MCA) and benefit-cost analysis (BCA). It provides a framework for participatory and science-based evaluation processes with combined use of BCA and MCA to support large-scale public decisions. While IMA does not claim to realize an all-inclusive participation scheme, it offers the advantage to improve the quality of decision making through advances in competence and fairness. Its practical application with emphasis on its participatory elements is demonstrated by the case study on the water allocation conflict of the German Spree River, which involves the German capital of Berlin, an important wetland, and the needs to remediate a post-mining landscape. --Participation,Multi-criteria analysis,Cost-benefit analysis,River basin management,Integrated Assesment
Semantische Spezifikation Dispositiver Informationssysteme
Trotz verfĂŒgbarer Technologie und anerkannter Systemarchitektur existieren im Rahmen der Entwicklung von Dispositiven Informationssystemen ungelöste Probleme, die in der semantischen Modellierung zu sehen sind. Es mangelt an anerkannten Sprachen und Notationen, die die Voraussetzung zur Ausbildung anerkannter Entwicklungsmethoden darstellen. ZunĂ€chst wird der Problembereich motiviert und es wird in Kapitel 2 ein Ordnungsrahmen vorgeschlagen, der hilft, die Diskussion von Entwicklungsprozessen von Information Warehouses zu strukturieren. Kapitel 3 schlĂ€gt sowohl eine Sprache als auch geeignete Notationskonventionen zur Nutzung der Sprache im Rahmen der semantischen Modellierung Dispositiver Informationssysteme vor. Kapitel 4 bietet ein Anwendungsbeispiel.<br/
What's the Difference?! Gender, Personality, and the Propensity to Start a Business
Women start fewer businesses than men. The start-up rate among women in Germany falls short of males' start-up rate by one third. We scrutinize this gender gap using individual-level data from the KfW Start-up Monitor, a large-scale population survey on start-up activity in Germany. As a unique feature, the data combine socio-demographic characteristics, entrepreneurship-related attitudes, and general personality traits of both business starters and non-starters. Estimating binary choice models and employing decomposition techniques, we find that gender differences in socio-demographics alone would even be in favor of higher start-up rates among women, while the distribution of personality traits is less favorable for business start-ups among women and explains about one third of the entire gender difference. Most substantially, men opt for a start-up more often even given identical human capital and related endowments. Qualificational policies targeted towards higher educational attainments of potential entrepreneurs do thus not suffice to increase the number of female business starters.entrepreneurship, gender difference, start-up propensity, decomposition analysis, KfW Start-up Monitor, Germany
Fraud-risk assessment
Promocijas darba kopsavilkums latvieĆĄu un angÄŒu valod
Entwicklung eines hybriden Simulationsmodells zur Optimierung des Betriebsverhaltens von Dekantierzentrifugen
Diese Arbeit befasst sich mit der Entwicklung eines hybriden Simulationsmodells zur Optimierung des Betriebsverhaltens von Dekantierzentrifugen. Konkret umfasst dies die Erweiterung eines dynamischen Prozessmodells, die Modellierung eines Algorithmus zur Berechnung von Degritting und die Entwicklung eines Grey-Box-Modells als hybriden Modellierungsansatz. Dekantierzentrifugen (kurz Dekanter genannt) sind spezielle Zentrifugen, welche einige Vorteile bei der groĂtechnischen Anwendung bieten. Sie sind unter anderem hĂ€ufig in der Bergbauindustrie beispielsweise bei der Verarbeitung von Mineralien wie Calciumcarbonat (Fest-FlĂŒssig Trennung, Klassierung, Degritting) im Einsatz, da sie kontinuierlich und in kurzer Zeit hohe DurchsĂ€tze verarbeiten können. Allerdings ist der Betrieb von Dekantierzentrifugen mit einem erhöhten Energieaufwand und dadurch Kosten verbunden. Deswegen sind Methoden und Modelle zur mathematischen Beschreibung von Dekantierzentrifugen wichtig, um den optimalen Betriebspunkt zu bestimmen und dadurch sowohl den Energieaufwand als auch die Prozesskosten zu senken. Des Weiteren bilden Berechnungsmethoden eine wichtige Grundlage bei der Dimensionierung neuer Dekantierzentrifugen, um den experimentellen Aufwand zu reduzieren oder sogar zu ersetzen. Bestehende Methoden waren bisher nicht ausreichend, um das dynamische Verhalten von feindispersen Suspensionen im gesamten Apparat zu beschreiben.
Basierend auf einem dynamischen Modell fĂŒr die Klassierung und den Sedimentaufbau im zylindrischen Teil von Dekantierzentrifugen erfolgt in der hier vorliegenden Arbeit die Erweiterung des Modells um den konischen Teil der Zentrifuge zur ganzheitlichen Betrachtung des Dekanters. Insbesondere bei der mechanischen Entfeuchtung ist das Materialverhalten im konischen Teil von entscheidender Bedeutung fĂŒr den effizienten Betrieb von Dekantierzentrifugen. Weiterhin wird im Rahmen dieser Arbeit die Kompressionsfunktion zur Sedimentkonsolidierungsfunktion erweitert. Damit lĂ€sst sich zusĂ€tzlich der Effekt der Scherverdichtung charakterisieren und in der Simulation berĂŒcksichtigen. Der Vergleich von experimentellen Ergebnissen der Validierungsversuche im Labor-, Pilot- und IndustriemaĂstab mit Simulationen bestĂ€tigen sowohl die Scale-up FĂ€higkeit als auch die Ăbertragbarkeit des Simulationsmodells auf andere Produkte.
DarĂŒber hinaus erfolgt die Entwicklung eines Ansatzes zur Modellierung von Degritting (Abtrennung von Ăberkorn wie Mahlperlen aus dem eigentlichen Wertprodukt). Mehrphasensimulationen mittels Computational Fluid Dynamics dienen zur Ableitung einer Trennbedingung der unerwĂŒnschten Ăberkornpartikel aus der Suspensionen. Die Ergebnisse von Experimenten aus der industriellen Praxis stimmen sehr gut mit den Ergebnissen des Degritting Algorithmus ĂŒberein. Diese Studien bestĂ€tigen, dass die hier entwickelte Simulationsmethode detaillierte Einblicke in das Abscheideverhalten liefert.
In einigen praxisrelevanten Anwendungen, wie beispielsweise bei der Einstellung einer groĂen Teichtiefe innerhalb der Dekantierzentrifuge, können lokale Turbulenzen und Strömungen in einigen Bereichen der Zentrifuge das Abscheideverhalten der Partikel beeinflussen. Das Prozessmodell allein kann lokale Strömungseffekte auf das Abscheideverhalten bei solchen Teichtiefen nicht abbilden, da dies eine detaillierte Strömungssimulation erfordert und fĂŒr diese AbhĂ€ngigkeiten allgemein keine analytischen oder empirischen Gleichungen zur VerfĂŒgung stehen. Deswegen erfolgt im Rahmen dieser Arbeit die Entwicklung eines sogenannten hybriden Simulationsmodells, um zukĂŒnftig die beschriebenen AbhĂ€ngigkeiten trotzdem abzubilden. Die Grey-Box-Modellierung stellt einen hybriden Modellierungsansatz dar, der aus einem parametrischen und einem nicht-parametrischen Modell besteht. Das parametrische Modell ist das zuvor entwickelte dynamische Prozessmodell, welches die physikalische Basis darstellt und als idealer SchĂ€tzer fĂŒr den zu simulierenden Prozess dient. DarĂŒber hinaus ist das nicht-parametrische Modell ein neuronales Netzwerk, das lernt die Simulationsdaten entsprechend zu korrigieren, falls im trainierten Bereich die Abweichungen zwischen Simulationsergebnissen und Trainingsdaten zu groĂ sind. Die Modellierung eines solchen statischen, parallelen Grey-Box-Modells fĂŒr Dekantierzentrifugen ist in dieser Arbeit dargestellt. Die Ergebnisse bestĂ€tigen, dass es durch Training des neuronalen Netzwerkes möglich ist den Einfluss von lokalen Strömungseffekten auf das Abscheideverhalten von Partikeln innerhalb der Zentrifuge abzubilden. Generell ergeben sich dadurch neue Möglichkeiten das hybride Simulationsmodell zu erweitern. ZusĂ€tzliche Effekte lassen sich entweder ĂŒber weitere Gleichungen in das parametrische Modell integrieren oder das neuronale Netz lernt durch gezielte Experimente die ZusammenhĂ€nge zu beschreiben.
Mit der hier entwickelten und validierten Simulationsmethode ist es zukĂŒnftig möglich, das dynamische Verhalten von feindispersen Suspensionen unter BerĂŒcksichtigung der Scherverdichtung in der gesamten Dekantierzentrifuge zu beschreiben. DarĂŒber hinaus liefert der neu entwickelte Degritting Algorithmus ein dynamisches Modell zur Berechnung fĂŒr diese Anwendung. Insgesamt demonstrieren die Ergebnisse dieser Arbeit die Vorteile der Entwicklung von hybriden Simulationsmodellen bei der Optimierung des Betriebsverhaltens von Dekantierzentrifugen. Durch die gewonnenen Erkenntnisse ist es möglich, das Prozessverhalten von Dekantierzentrifugen effizienter und akkurater vorherzusagen. Dies erlaubt die Optimierung von Prozessketten und eröffnet neue Methoden in der Auslegung von Zentrifugen und deren Einsatz in der Prozesskette. Weiterhin bildet die Anwendung von hybriden ModellierungsansĂ€tzen wie hier am Beispiel der Dekantierzentrifuge eine wichtige Grundlage fĂŒr die anwendungsorientierte Forschung angesichts der zunehmenden Digitalisierung
BerĂŒcksichtigung instabiler Varianzen in der Zeitreihenanalyse
'Die Modellierung von Zeitreihen - beispielsweise in Form der ARIMA-Modelle - stĂŒtzt sich auf die Theorie stationĂ€rer stochastischer Prozesse. Die StationaritĂ€tsvoraussetzung ist bei vielen sozialwissenschaftlich relevanten Zeitreihen aber nicht erfĂŒllt. Unter anderem weisen sie hĂ€ufig Varianzen auf, die entweder trend- oder zeitspezifisch schwanken. Der vorliegende Artikel erlĂ€utert ausfĂŒhrlich die Box/Cox-Transformation (zur Stabilisierung trendabhĂ€ngiger Varianzen) und die von Tsay vorgeschlagene Adjustierung periodenspezifischer Varianzen. AuĂerdem wird kurz in den Ansatz der GARCH-Modelle eingefĂŒhrt, einer allgemeinen Strategie zur Modellierung zeitspezifischer Varianten.' (Autorenreferat)'The modelling of time series data is based on the theory of stationary stochastic processes. Many of the sociologically relevant time series, however, are non-stationary, not only in the mean but also in the variances which may depend on time or level. The present article discusses the Box-Cox transformation (as a means to stabilize trend specific variances) and a strategy proposed by Tsay to make appropriate adjustments for abrupt changes of variance. There is also a brief introduction into GARCH-modelling, a more generalized approach to deal with time specific heteroscedasticity.' (author's abstract)
Die VolatilitĂ€t von Finanzmarktdaten. Theoretische Grundlagen und empirische Analysen von stĂŒndlichen Renditezeitreihen und RisikomaĂen
Es ist die Aufgabenstellung dieser Arbeit, die VolatilitĂ€t fĂŒr stĂŒndliche Finanzmarktdaten im Zeitablauf adĂ€quat zu beschreiben und dazu empirisch die Anwendbarkeit ausgewĂ€hlter Modelle der Kapitalmarkttheorie fĂŒr die Modellierung der VolatilitĂ€t von stĂŒndlichen Kapitalmarktdaten sowie fĂŒr die Bestimmung von kapitalmarktbezogenen RisikomaĂen zu untersuchen. Der Aufbau der Arbeit folgt im Wesentlichen dieser Aufgabenstellung. Im AnschluĂ an die Einleitung findet im zweiten Kapitel eine Zeitreihenanalyse bei ausgewĂ€hlten Finanzmarktdaten statt. Es werden die in dieser Arbeit verwendeten Finanzmarktdaten beschrieben und ihre statistischen Eigenschaften untersucht. Danach werden die linearen stochastischen Prozesse diskutiert und fĂŒr die Renditereihen der Finanzmarktdaten werden ARMA-Modelle geschĂ€tzt. Im dritten Kapitel steht die VolatilitĂ€tsanalyse der hier ausgewĂ€hlten Finanzmarktdaten im Mittelpunkt der Betrachtung. Es zeigt sich, dass die aus den Finanzmarktdaten abgeleiteten untersuchten Renditereihen durch nichtlineare AbhĂ€ngigkeiten in den Residuen gekennzeichnet sind. Um diese nichtlinearen AbhĂ€ngigkeiten zu berĂŒcksichtigen werden die Modelle der ARCH-Familie vorgestellt und spezifiziert. Mit Hilfe dieser Modelle ist es möglich, die Schwankungen der VolatilitĂ€t im Zeitablauf zu berĂŒcksichtigen. Im Anschluss daran werden die hier analysierten Finanzmarktdaten anhand der geschĂ€tzten GARCH-Modelle im Hinblick auf den Aspekt der Informationseffizienz untersucht. Im vierten Kapitel stehen zwei ausgewĂ€hlte RisikomaĂe im Vordergund der Untersuchung dieser Arbeit. Der Value-at-Risk wird fĂŒr den Bereich des Risikomanagements als erstes RisikomaĂvorgestellt. Zuerst werden die Enstehung und die Grundkonzepte des Value-at-Risk vorgestellt. AnschlieĂend wird die Datengrundlage der empirischen Vergleichsstudie beschrieben. Der Kern dieses Abschnitts liegt in der Modellierung des Value-at-Risks durch drei verschiedene Verfahren, um darauf aufbauend diese Methoden zu beurteilen und miteinander zu vergleichen. Danach wird fĂŒr den Bereich der Wertpapierbewertungsmodelle der Betafaktor als zweites RisikomaĂdiskutiert. Es werden die theoretischen Grundlagen des Betafaktors dargelegt und es wird das dabei zu untersuchende Datenmaterial beschrieben. Dabei liegt der Schwerpunkt dieses Abschnitts in der SchĂ€tzung des Betafaktors durch die vorgestellten Modelle und endet mit dem Vergleich der empirischen Ergebnisse. AbschlieĂend werden im fĂŒnften Kapitel die wichtigen Fragestellungen und empirischen Ergebnisse dieser Arbeit zusammengefasst und bewertet
A hybrid virtual sensing approach for approximating non-linear dynamic system behavior using LSTM networks
Modern Internet of Things solutions are used in a variety of different areas,
ranging from connected vehicles and healthcare to industrial applications. They
rely on a large amount of interconnected sensors, which can lead to both
technical and economical challenges. Virtual sensing techniques aim to reduce
the number of physical sensors in a system by using data from available
measurements to estimate additional unknown quantities of interest. Successful
model-based solutions include Kalman filters or the combination of finite
element models and modal analysis, while many data-driven methods rely on
machine learning algorithms. The presented hybrid virtual sensing approach
combines Long Short-Term Memory networks with frequency response function
models in order to estimate the behavior of non-linear dynamic systems with
multiple input and output channels. Network training and prediction make use of
short signal subsequences, which are later recombined by applying a windowing
technique. The frequency response function model acts as a baseline estimate
which perfectly captures linear dynamic systems and is augmented by the
non-linear Long Short-Term Memory network following two different hybrid
modeling strategies. The approach is tested using a non-linear experimental
dataset, which results from measurements of a three-component servo-hydraulic
fatigue test bench. A variety of metrics in time and frequency domains, as well
as fatigue strength under variable amplitudes are used to evaluate the
approximation quality of the proposed method. In addition to virtual sensing,
the algorithm is also applied to a forward prediction task. Synthetic data are
used in a separate study to estimate the prediction quality on datasets of
different size.Comment: 18 pages, 10 figure
- âŠ