38 research outputs found
Investitionen, Weiterbildung und betriebliche Reorganisation (Investments, further training and company reorganization)
"The correlations between investments, reorganization and further training existing at company level are examined in this paper. A production theory approach in conjunction with an optimisation calculation of the companies shows that the variables focused on here are mutually dependent on one another. If the model analysis is expanded by a few plausibility considerations on possible company developments, the initially simple and clearly manageable structure becomes more complex and counter-effects can occur. This is why it is not possible to formulate any clear hypotheses on the interdependency effects of the variables of investments, reorganization and further training as a point of departure for an empirical analysis. The empirical study is based on the data of the IAB establishment panel of the years 1997-2000. The focus of research is a simultaneous triangular equation model with further training, reorganization and investments as the variables to be studied. The key results are: there is a mutually interdependent relationship between reorganization measures and investments. Although further training is encouraged by real capital investments, the reverse correlation cannot be found. Clear relationships between further training and reorganization measures only exist if individual measures are analysed. All in all, simultaneous relationships between investments, reorganization measures and further training schemes can be empirically proven. Delayed adjustment processes partly interfere with them." (Author's abstract, IAB-Doku) ((en))organisatorischer Wandel, IAB-Betriebspanel, Unternehmensorganisation, Arbeitsorganisation, Investitionen, betriebliche Weiterbildung, Produktinnovation, Westdeutschland, Ostdeutschland, Bundesrepublik Deutschland
Analyse komplexer Molekülspektren
Mit Hilfe der Spektroskopie lassen sich die Energiedifferenzen zwischen den verschiedenen Zuständen der Moleküle messen, nicht aber die Energien der Zustände selbst. Üblicherweise werden diese Daten ausgewertet, indem die Parameter eines Modells so angepasst werden, dass die Energiedifferenzen der vom Modell vorhergesagten Zustände zu den gemessenen passen.
Die verwendeten Modelle setzen in der Regel voraus, dass die grundsätzliche Geometrie des Moleküls (zeitlich) konstant ist. Dies gilt für sog. floppy Moleküle aber nicht, weshalb es bislang kaum systematische Auswertungsverfahren für die Spektren solcher Moleküle gibt.
CH5+ ist Prototyp eines floppy Moleküls, für dessen Quantenzustände es bisher keine analytische Beschreibung gibt. Deshalb beruht die Rekonstruktion dieser Zustände auf Methoden wie der Suche nach Häufungen von Kombinationsdifferenzen der Rovibrationsübergänge. Aufbauend auf den hochauflösenden Daten und der Methodik von Asvany et al. (O. Asvany, K. M. T. Yamada, S. Brünken, A. Potapov, S. Schlemmer: Experimental ground-state combination differences of CH5+ . Science Volume 347 Issue 6228, 2015, Seiten 1346–1349) wurde die Rekonstruktion verbessert, indem einerseits die bisherigen Methoden weiterentwickelt und andererseits neue entwickelt wurden.
Zwei neue Sets von Kombinationsdifferenzen wurden gefunden und die bereits bekannten vervollständigt. Dabei konnten nicht nur größere Teile der Vibrationsgrundzustände rekonstruiert werden, sondern auch vibrationsangeregte Zustände
Modalwertschätzung in der nichtparametrischen Kurvenschätzung und Blockwise Bootstrap für den geschätzten empirischen Prozess
Die folgende Arbeit befasst sich mit Fragestellungen der asymptotischen Statistik. Der erste Teil ist der Modalwertschätzung im Rahmen der nichtparametrischen Kurvenschätzung in verschiedenen Modellen gewidmet. Zunächst wird das Problem der Modalwertschätzung in Dekonvolutionsmodellen betrachtet, wo interessierende
Zufallsvariablen nicht direkt beobachtet werden können, sondern mit einer additiven Störgröße versehen sind. Durch Verwendung von für diese Problematik üblichen Kernschätzern für die Kurven selbst werden Konvergenzraten für den Modalwertschätzer erzielt, der durch Maximierung der Kurvenschätzer definiert ist. Die erzielten Konvergenzraten im Modell der Dichteschätzung und der Errors-in-Variables-Regression sind von der Glattheit der mindestens als zweimal stetig differenzierbar angenommen Kurve sowie der Schlechtgestelltheit des Dekonvolutionsproblems abhängig und erweisen sich als asymptotisch optimal. Im Modell mit direkten Beobachtungen wird der Fall einer Kurve mit nichtdifferenzierbarer Modalstelle unter Vorliegen stark mischender Beobachtungen beleuchtet. Zur Schätzung des Modalwertes wird sowohl die Maximierung des Kurvenschätzers über dem Kontinuum sowie über einem Gitter herangezogen, beide Schätzer erweisen sich wiederum als asymptotisch optimal. Der zweite Teil dieser Arbeit behandelt den empirischen Prozesses mit geschätztem Parameter, basierend auf schwach abhängigen Beobachtungen. Zahlreiche Teststatistiken beruhen auf dem geschätzten empirischen Prozess, jedoch ist deren Verteilung von unbekannten Parametern abhängig. Daher wird der Originalprozess durch einen Prozess imitiert, welcher auf Pseudo-Beobachtungen beruht, die durch ein geeignetes Resampling-Verfahren generiert wurden. Für den Prozess der zugrundeliegenden Beobachtungen wird das auf Doukhan und Louhichi basierende Abhängigkeitskonzept der -Weak Dependence verwendet, welches allgemeiner ist als das Mixing-Konzept und etwa auch innovationsgesteuerte Prozesse mit diskret verteilten Innovationen umfasst. Es wird zunächst die Verteilungskonvergenz des geschätzten empirischen Prozesses gegen einen zentrierten Gaußprozess nachgewiesen. Weiterhin wird für den Bootstrap-Prozess die Verteilungskonvergenz in Wahrscheinlichkeit gegen einen zentrierten Gaußprozess gezeigt und daraus für geeignete Teststatistiken die schwache Konsistenz des Bootstrap-Verfahrens in der Supremums-Metrik abgeleitet
Verification of the New Trade Theory in EU's Trade with CEECs
The new trade theory explains several features of the current development of EU's trade with CEECs better than the Heckscher-Ohlin model. In 1997, CEECs participated in the European economy with levels of intraindustry trade comparable to peripheral EU countries. However, this induced increased specialization in EU countries, which contrasts with the development in the previous decades. The development of intraindustry trade is positively related to the growth of wages and negatively to interest rates.New trade theory, Intraindustry trade, Kernel estimates of distribution, Fixed effects model
Prognose der Anzahl von Pareto-optimalen Lösungen für bikriterielles Facility Location Problem
Die Grundidee dieser Arbeit liegt darin, dass ein einfaches bikriterielles Facility Location Problem zugrundegelegt wird. Es kann sich zum Beispiel um ein Standortauswahl-Problem handeln. Bei Standortauswahl-Problem können verschiedene
Kriterien eine Rolle spielen. In dieser Arbeit werden zwei Kriterien ausgewählt.
Einerseits wird ein Kostenkriterium anderseits Coverage-Kriterium gewählt. Weiter wird anhand einer kleinen Stichprobe von Näherungslösungen die Anzahl der Pareto-Optima
der gesamten Lösungsmenge vorhersagt. Das geschieht in folgenden vier Schritten.
Zuerst werden mit Hilfe von lokaler Suche unter zufälligen Chebyshev-Gewichtsvektoren die lokalen Pareto-Minima bestimmt. Danach wird die Anzahl aller lokalen Pareto-
Minima mit Hilfe der Rückfangmethode geschätzt. Im nächsten Schritt wird für die lokalen Pareto-Minima eine Dichtefunktion geschätzt (Kernschätzer-Technik). Als Kernschätzer kann man einen zweidimensionalen Gaussian Kernel verwenden. Zuletzt
werden Zufallspunkte aus der geschätzten Dichte gezogen und unter diesen Punkte werden globale Pareto-Minima bestimmt. Durch Mitteln über eine größere Anzahl von
Versuchen erhält man einen Schätzwert für die Anzahl der globalen Pareto-Minima
Schätzer in periodisch beobachteten autoregressiven Modellen
Gegeben sei eine lineare autoregressive Zeitreihe, die wir nicht vollständig, sondern zu periodisch sich wiederholenden Zeitpunkten beobachten. Ausgehend von diesen Beobachtungen konstruieren wir Schätzer für den Autoregressionsparameter und die Innovationsdichte der voll beobachteten Zeitreihe. Der Schätzer für die Innovationsdichte verwendet einen Dekonvolutionsschätzer. Eine einfachere Variante wurde schon in einem sogenannten eingeschränkten Dekonvolutionsproblem für unabhängige Beobachtungen eingeführt. Ferner zeigen wir die lokale asymptotische Normalität der periodisch beobachteten Zeitreihe. Ef- ziente Schätzer für den Autoregressionsparameter werden charakterisiert. Wir konstruieren einen ezienten Schätzer unter einer zusätzlichen strukturellen Annahme. Dazu verwenden wir den Kleinste-Quadrate-Schätzer als Startschätzer und verbessern ihn mit dem Newton-Rhapson-Verfahren
Residual based selection of smoothing parameters
Die vorliegende Dissertation beschäftigt sich mit der speziellen Problematik der Glättungsparameter-Wahl in der Nichtparametrischen Regression. Da Standardverfahren wie z.B. Kernschätzer, lokale Polynom-Anpassungen und Splines jeweils mindestens einen Glättungsparameter benötigen, stellt sich die Frage, wie diese automatisch auch für komplizierte Datensätze gewählt werden können. Hier wird ein Alternativ-Verfahren zu den ansonsten üblichen Kreuzvalidierungsmethoden vorgestellt. Basierend auf einer Multiresolutions-Analyse der Residuen von Davies und Kovac (2001) werden iterativ sowohl lokale Bandbreiten für Kernschätzer und lokale Polynom-Anpassungen bestimmt, als auch die notwendigen Parameter für lokal gewichtete Glättungs-Splines. Die Verfahren besitzen eine sehr hohe Flexibilität und liefern dennoch sehr glatte Approximationen. In einem Anwendungs-Beispiel aus der Physik werden die Vorzüge lokal gewichteter Glättungs-Splines ausgenutzt. Zudem wird ein robustes Approximationsverfahren für zweidimensionale Datensätze mit großen Ausreißern vorgestellt, dessen lokale Glättungsparameter ebenfalls automatisch bestimmt werden. Da lokale Varianten von Splines in zwei Dimensionen - wie z.B. Thin Plate Splines oder Penalized Triograms - nicht so einfach zu berechnen sind wie im eindimensionalen Fall, wird ebenfalls demonstriert, wie mit Hilfe der Multiresolutions-Analyse von Residuen globale Glättungsparameter gewählt werden können
Schätzung ökonometrischer Modelle auf der Grundlage anonymisierter Daten
Die Anonymisierung von sensiblen Individualdaten führt zu einem Konflikt zwischen dem Ziel der Minimierung des Reidentifikationsrisikos und der Qualität ökonometrischer Schätzungen. Der durch Anonymisierung bedingte Verlust an Effizienz und/oder der Konsistenz eines Schätzers wirft die grundsätzliche Frage auf, inwieweit anonymisierte Individualdaten überhaupt für die wissenschaftliche Nutzung geeignet sind. Deshalb gehen wir in dieser Arbeit der Frage nach, welchen Einfluss Anonymisierungsverfahren auf die Eigenschaften von ökonometrischen Schätzern haben. Zunächst untersuchen wir die Auswirkungen gängiger Anonymisierungsverfahren auf lineare ökonometrische Schätzer in endlichen Stichproben. Im zweiten Schritt untersuchen wir, inwieweit sich die Selektions-effekte durch Anonymisierung aufgrund von Data Blanking mit Hilfe von semiparametrischen Verfahren korrigieren lassen. Die quantitative Evidenz beruht auf Monte-Carlo Simulationen und einer illustrativen Anwendung für einen Querschnitt der Kostenstrukturerhebung.Mikroaggregation, stochastische Überlagerung, Data Blanking, IV-Schätzung, semiparametrisches Selektionsmodell