112 research outputs found

    ÜBER EINE TECHNISCHE ANWENDUNG DER DISTRIBUTIONENTHEORIE

    Get PDF

    ARCH-Prozesse und ihre Erweiterungen - Eine empirische Untersuchung für Finanzmarktzeitreihen -

    Full text link
    Das in Finanzmarktdaten zu beobachtende volatility-clustering impliziert, daß große Renditeschocks bei der Preisbildung die Wahrscheinlichkeit einer hohen zukünftigen Volatilität steigern. Ausgehend von den von Engle (1982) vorgeschlagenen ARCH-Modellen hat sich eine ganze Reihe von Modellvarianten zur Modellierung und Prognose bedingter Varianzen entwickelt. In dieser Analyse werden ARCH-Modelle und ausgewählte Erweiterungen hinsichtlich ihrer Eignung zur Modellierung und Prognose bedingter Varianzen im DAX miteinander verglichen.The volatility clustering observed in financial market data implies that large net yield shocks increase the probability of a higher future volatility during the price formation. Starting from the ARCH models which were suggested by Engle (1982), a range of models for conditional variances have been developed. In this analysis ARCH models and selected extensions are compared with each other regarding their suitability for the modelling and prognosis of conditional variances in the DAX-index

    Ist die Hebelwirkung der Grund für Asymmetrie in ARCH- und GARCH-Modellen?

    Get PDF
    Moderne Varianten von ARCH- und GARCH-Modellen für Kapitalmarktdaten (z.B. EGARCH, GJR-GARCH, A-PARCH) berücksichtigen außer den zweiten Momenten auch die Beziehung zwischen ersten und zweiten Momenten (Asymmetrie). Eine Erklärung dieser Asymmetrie ist die Hebelwirkungshypothese. Die Hebelwirkung (leverage effect) ist jedoch nur für bestimmte Arten von Kapitalmarktdaten relevant und damit als Erklärung der Asymmetrie heranziehbar. Diese Arbeit weist empirisch nach, daß asymmetrische GARCH-Modelle in der Tat vor allem für Aktienrenditen und weniger für Änderungsraten von Wechselkursen den Erklärungsgehalt erhöhen

    Nichtparametrische Schätzung bedingter Quantile in Finanzmarktdaten

    Full text link
    In der Literatur wurden verschiedene parametrische Modelle zur Analyse der Heteroskedastie in Zeitreihen von Finanzmarktdaten entwickelt. Eine Möglichkeit, die bedingte Volatilität nichtparametrisch zu erfassen, ist die Kernschätzung von bedingten Quantilen. In diesem Aufsatz werden einige asymptotische Eigenschaften des Kernschätzers präsentiert. Die Anwendung von nichtparametrischen Schätzern setzt die Wahl eines Glättungsparameters voraus. Es wird die Bandweitenwahl mittels Cross-Validation als Lösung diskutiert. Die Prozedur wird zur Schätzung von bedingten Quantilen in der Zeitreihe täglicher DAX-Renditen verwendet

    Informationskriterien und Volatility Clustering

    Full text link
    Ein wichtiges Problem in der statistischen Analyse ist die Auswahl eines passenden Mo-dells. Im Kontext linearer ARIMA-Modelle kann gezeigt werden, dass - die Gültigkeit bestimmter Regularitätsbedingungen vorausgesetzt - die Minimierung des Schwarz-Kriteriums zu einer konsistenten Wahl der Anzahl der Parameter in einem Modell führt, wohingegen die Schätzung der Parameterzahl mit Hilfe des Akaike-Kriteriums tendenziell zu große Modelle liefert. Ziel dieser Analyse ist es, mit Hilfe von Monte-Carlo-Experimenten die Eigenschaften des Akaike- und des Schwarz-Informationskriteriums zu untersuchen, wenn der datengenerierende Prozess GARCH-Störungen aufweist.An important problem in statistical practise is the selection of a suitable statistical model. In the context of linear ARIMA-models it can be shown that - the validity of certain regu-larity conditions presupposed - the minimization from Black-criterion leads to a consistent choice of the parameters in a model whereas the estimation of the parameter number with the Akaike-criterion tendentious leads to too large models. Goal of this analysis is to examine with Monte Carlo experiments the characteristics of the Akaike- and of the Black-criterion if the data generating process exhibits GARCH-effects

    Informationskriterien und Volatility Clustering

    Get PDF
    Ein wichtiges Problem in der statistischen Analyse ist die Auswahl eines passenden Mo-dells. Im Kontext linearer ARIMA-Modelle kann gezeigt werden, dass - die Gültigkeit bestimmter Regularitätsbedingungen vorausgesetzt - die Minimierung des Schwarz-Kriteriums zu einer konsistenten Wahl der Anzahl der Parameter in einem Modell führt, wohingegen die Schätzung der Parameterzahl mit Hilfe des Akaike-Kriteriums tendenziell zu große Modelle liefert. Ziel dieser Analyse ist es, mit Hilfe von Monte-Carlo-Experimenten die Eigenschaften des Akaike- und des Schwarz-Informationskriteriums zu untersuchen, wenn der datengenerierende Prozess GARCH-Störungen aufweist. -- An important problem in statistical practise is the selection of a suitable statistical model. In the context of linear ARIMA-models it can be shown that - the validity of certain regu-larity conditions presupposed - the minimization from Black-criterion leads to a consistent choice of the parameters in a model whereas the estimation of the parameter number with the Akaike-criterion tendentious leads to too large models. Goal of this analysis is to examine with Monte Carlo experiments the characteristics of the Akaike- and of the Black-criterion if the data generating process exhibits GARCH-effects.

    Totale Faktorproduktivität in der Bundesrepublik Deutschland: (1970-1989). Ergebnisse für das produzierende Gewerbe

    Full text link
    The paper presents results for the development of total factor productivity (TFP) growth for 35 industries. It analyses the medium-term and long-term trends in these industries during the last two decades. The method used for the calculation was first proposed by Huiten (J986). It takes into account capacity utilization effects for the capital stock. Comparing the average TFP growth rates for manufacturing before, during, and after the two oil price shocks one observes that there is a steady acceleration from a fairly low 1.4per cent rate during 1970-74 to 2 per cent during 1984-89. Contrary labour productivity, measured by annual working hours, declined. Therefore the increase in TFP growth rates has to be attributed to a marked shift in capital productivity. During the early 70ies capital productivity growth rates were negative in manufacturing supporting a hypothesis of capital using and labour saving technological progress. Since then capital productivity became positive across all major subindustries in manufacturing. This led to the up-turn in TFP growth. Four hypothesis are proposed in the paper to explain the shift in the development of capital productivity growth. In the last section a number of cross-section regressions for the 35 industries for the whole period as well as a number of subperiods are calculated. As the results show Verdoorns Law seems to be valid for all periods considered Therefore high growth industries are - with respect to gross value added - leading industries in high TFP growth as well

    Effekte der multiplen Imputation fehlender Werte am Beispiel von Produktivitätsschätzungen mit dem IAB-Betriebspanel

    Full text link
    Der Beitrag schildert die Effekte von Antwortausfällen bei einzelnen Fragen ("item non-response") auf die Ergebnisse von multivariaten statistischen Analysen. Dabei wird das Verfahren der "Data Augmentation" angewendet, um die fehlenden Daten zu ersetzen (Schafer 1997). Anhand von Schätzungen der betrieblichen Produktivität wird nun überprüft, ob die "multiple Imputation" von Beobachtungen (Rubin 1987) zu Veränderungen der Ergebnisse im Vergleich zu den Resultaten mit Antwortausfällen führt. Dazu werden Schätzungen mit Daten des IABBetriebspanels aus dem Jahr 2000 durchgeführt. Grundlage der Produktivitätsschätzungen ist eine verallgemeinerte Produktionsfunktion des Translog-Typs (Berndt & Christensen 1973), wobei Arbeit und Kapital als Produktionsfaktoren unterstellt werden. Zusätzlich werden Brancheneinflüsse und die Effekte der Nutzung moderner Technologien berücksichtigt. Von besonderem Interesse bei der Untersuchung sind Differenzen zwischen den alten und den neuen Bundesländern. Um zu überprüfen, ob nicht nur ein konstanter Unterschied zwischen Ost und West existiert, werden neben einer Dummy-Variablen auch alle anderen exogenen Variablen mit dieser Ost-West-Variable multipliziert und gehen als Interaktionsvariablen in die Schätzung ein. Die Funktion wird als Maximum-Likelihood-Funktion geschätzt, in der ein multiplikatives Modell der Heteroskedastie unterstellt wird (Greene 1998). Die Ergebnisse bestätigen das zugrunde liegende Modell. Neben einer Reihe von Unterschieden in den Branchen, ergibt sich auch eine höhere Produktivität bei Nutzung von modernen Technologien. Zwischen Ost und West zeigen sich dagegen nur Unterschiede in der Konstanten und bei einigen Branchen, nicht jedoch bei den Produktionsfaktoren. Durch den Antwortausfall scheinen diese Differenzen zu hoch ausgewiesen zu werden. Bei den ergänzten Daten reduzieren sich die konstanten Unterschiede in der Produktivität um etwa 11%-Punkte. Ebenso werden die Branchendifferenzen deutlich geringer

    Ein übergeordnetes Variationsprinzip für den Fehlerabgleich der Finite-Element-Methode

    Get PDF
      &nbsp

    Bibliographie

    Get PDF
    corecore