27 research outputs found

    Finite Sample Inference Methods for Simultaneous Equations and Models with Unobserved and Generated Regressors

    Get PDF
    We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables method. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the ``structural parameters'' of interest and build confidence sets. The second approach relies on ``generated regressors'', which allows a gain in degrees of freedom, and a sample-split technique. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) ``asymptotically valid'' under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin's qq and to a model of academic performance.

    Market Time and Asset Price Movements Theory and Estimation

    Get PDF
    Subordinated stochastic processes, also called time deformed stochastic processes, have been proposed in a variety of contexts to describe asset price behavior. They are used when the movement of prices is tied to the number of market transactions, trading volume or the more illusive concept of information arrival. The aim of the paper is to present a comprehensive treatment of the stochastic process theory as well as the statistical inference of subordinated processes. Numerous applications in finance are provided to illustrate the use of the processes to model market behavior and asset returns. Nous étudions les mouvements de prix d'actifs financiers à l'aide de processus avec changement de temps. L'idée est que l'activité du marché, mesurée par des séries comme le volume de transactions, détermine l'échelle de temps intrinsèque du processus stochastique de prix ou de rendement. Les propriétés de ce type de processus, parfois aussi appelés subordonné, sont présentées en détail et illustrées par plusieurs applications à la théorie financière. On développe également les procédures d'inférence statistique correspondantes.Time deformed stochastic processes ; Asset price behavior, Processus avec changement de temps ; prix d'actifs financiers

    Finite-sample inference methods for simultaneous equations and models with unobserved and generated regressors

    Get PDF
    We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.Nous proposons des tests et régions de confiance exactes pour des modèles comportant des variables inobservées ou des régresseurs estimés de même que pour divers modèles estimés par la méthode des variables instrumentales. La validité des procédures proposées n’est pas influencée par la présence de problèmes d’identification ou d’instruments faibles, de sorte que la détection de tels problèmes n’est pas requise pour les appliquer. De façon plus spécifique, nous étudions deux approches différentes pour divers modèles considérés par Pagan (1984). La première est une méthode de substitution d’instruments qui généralise des techniques proposées par Anderson et Rubin (1949) et Fuller (1984) pour des problèmes différents, tandis que la seconde méthode est fondée sur une subdivision de l’échantillon. La méthode de substitution d’instruments utilise directement les instruments disponibles, plutôt que des régresseurs estimés, afin de tester des hypothèses et construire des régions de confiance sur les \"paramètres structuraux\" du modèle. La seconde méthode s’appuie sur des régresseurs estimés, ce qui permet un gain de degrés de liberté, ainsi que sur une technique de subdivision de l’échantillon. Pour faire de l’inférence sur des transformation générales, possiblement non-linéaires, des paramètres du modèle, nous proposons l’utilisation de techniques de projection. Nous fournissons une théorie distributionnelle exacte sous une hypothèse de normalité des perturbations et de régresseurs strictement exogènes. Nous montrons que les tests et régions de confiance ainsi obtenus sont aussi (localement) \"asymptotiquement valides\" sous des hypothèses distributionnelles beaucoup plus faibles. Nous étudions les propriétés des tests proposés dans le cadre d’une expérience de simulation. En général, celles-ci sont plus fiables et ont une meilleure puissance que les techniques traditionnelles. Finalement, les techniques proposées sont appliquées à un modèle du q de Tobin et à un modèle de performance scolaire

    GARCH for Irregularly Spaced Data: The ACD-GARCH Model

    Get PDF
    We develop a class of ARCH models for series sampled at unequal time intervals set by trade or quote arrivals. Our approach combines insights from the temporal aggregation for GARCH models discussed by Drost and Nijman (1993) and Drost and Werker (1994), and the autoregressive conditional duration model of Engle and Russell (1996) proposed to model the spacing between consecutive financial transactions. The class of models we introduce here will be called ACD-GARCH. It can be described as a random coefficient GARCH, or doubly stochastic GARCH, where the durations between transactions determine the parameter dynamics. The ACD-GARCH model becomes genuinely bivariate when past asset return volatilities are allowed to affect transaction durations and vice versa. Otherwise the spacings between trades are considered exogenous to the volatility dynamics. This assumption is required in a two-step estimation procedure. The bivariate setup enables us to test for Granger causality between volatility and intra-trade durations. Under general conditions we propose several GMM estimation procedures, some having a QMLE interpretation. As illustration we present an empirical study of the IBM 1993 tick-by-tick data. We find that volatility of IBM stock prices Granger causes intra-trade durations. We also find that the persistence in GARCH drops dramatically once intra-trade durations are taken into account. Nous développons une classe de modèles ARCH pour les séries temporelles échantillonnées à intervalles inégaux comme des observations liées à des transactions de marché. Notre approche est fondée sur la méthode d'aggrégation temporelle pour les modèles ARCH de Drost et Nijman (1993) et de Drost et Werker (1994), et d'autre part sur le modèle autorégressif des moyennes conditionnelles des durées entre les transactions financières de Engle et Russell (1996). La classe de modèles présentée ici est nommée ACD-GARCH. Ce type de modèles peut être défini comme un GARCH aux coefficients aléatoires où la durée entre les transactions détermine la dynamique des paramètres. Le ACD-GARCH devient un modèle bivarié quand sa formation admet les interactions entre les volatilités des rendements passés et les durées, et vice-versa. Sinon, la série de durées est considérée exogène par rapport au processus de volatilité. Cette condition est préalable à l'estimation du modèle ACD-GARCH en deux étapes. La spécification bivariée nous permet de tester l'existence de la causalité de type Granger entre les volatilités et les durées. Sous conditions générales, diverses procédures d'estimation par la méthode de moments généralisés sont considérées, dont certaines fournissent les estimateurs, à la fois de type GMM et de type QMLE. Pour ce qui est des applications, nous présentons une étude empirique basée sur les données de transactions du titre IBM en 1993. Nos résultats indiquent que la volatilité des rendements sur les prix d'actions de IBM cause, au sens de Granger, les durées entre les transactions. Nous observons aussi que la persistance du processus GARCH diminue fortement quand on introduit les durées dans la formulation du modèle.Heteroskedasticity, Market Activity, Tick-by-Tick Data, Volatility, Causality, Duration Models, Hétéroscédasticité, activité de marché, volatilité, causalité, modèles de durées

    Finite Sample Inference Methods for Simultaneous Equations and Models with Unobserved and Generated Regressors

    Get PDF
    We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or weak instruments, so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generating regressors, in order to test hypotheses about the structural parameters of interest and build confidence sets. The second approach relies on generated regressors, which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and stricly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) asymptotically valid under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin's q and to a model of academic performance. Nous proposons des tests et régions de confiance exacts pour des modèles comportant des variables inobservées ou des régresseurs estimés de même que pour divers modèles estimés par la méthode des variables instrumentales. La validité des procédures proposées n'est pas influencée par la présence de problèmes d'identification ou d'instruments faibles, de sorte que la détection de tels problèmes n'est pas requise pour les appliquer. De façon plus spécifique, nous étudions deux approches différentes pour divers modèles considérés par Pagan (1984). La première est une méthode de substitution d'instruments qui généralise des techniques proposées par Anderson et Rubin (1949) et Fuller (1984) pour des problèmes différents, tandis que la seconde méthode est fondée sur une subdivision de l'échantillon. La méthode de substitution d'instruments utilise directement les instruments disponibles, plutôt que des régresseurs estimés, afin de tester des hypothèses et de construire des régions de confiance sur les paramètres structuraux du modèle. La seconde méthode s'appuie sur des régresseurs estimés, ce qui permet un gain de degrés de liberté, ainsi que sur une technique de subdivision de l'échantillon. Pour faire de l'inférence sur des transformations générales, possiblement non-linéaires, des paramètres du modèle, nous proposons l'utilisation de techniques de projection. Nous fournissons une théorie distributionnelle exacte sous une hypothèse de normalité des perturbations et de régresseurs strictement exogènes. Nous montrons que les tests et régions de confiance ainsi obtenus sont aussi (localement) asymptotiquement valides sous des hypothèses distributionnelles beaucoup plus faibles. Nous étudions les propriétés des tests proposés dans le cadre d'une expérience de simulation. En général, celles-ci sont plus fiables et ont une meilleure puissance que les techniques traditionnelles. Finalement, les techniques proposées sont appliquées à un modèle du q de Tobin et à un modèle de performance scolaire.Simultaneous equations, structural model, instrumental variables, weak instruments, generated regressor, Anderson-Rubin method, pivotal function, samplesplit, exact test, confidence region, projection techniques, Tobin's q, academic performance, Équations simultanées, modèle structurel, variables instrumentales, instruments faibles, régresseur estimé, méthode d'Anderson-Rubin, fonction pivotale, subdivision d'échantillon, inférence à distance finie, test exact, région de confiance, techniques de projection, q de Tobin, performance scolaire

    Kernel Autocorrelogram for Time Deformed Processes

    Get PDF
    The purpose of the paper is to propose an autocorrelogram estimation procedure for irregularly spaced data which are modelled as subordinated continuous time series processes. Such processes, also called time deformed stochastic processes, have been discussed in a variety of contexts. Before entertaining the possibility of modelling such time series one is interested in examining simple diagnostics and data summaries. With continuous time processes this is a challenging task which can be accomplished via kernel estimation. This paper develops the conceptual framework, the estimation procedure and its asymptotic properties. An illustrative empirical example is also provided. L'objectif de cet article est de proposer une procédure d'estimation des autocorrélations pour les processus échantillonnés à des intervalles inégaux, modélisés comme processus subordonnés en temps continu. Ces processus, que l'on appelle aussi processus avec déformation du temps, ont été proposés dans plusieurs contextes. Avant d'élaborer sur la possibilité de modélisation des séries temporelles de ce type, on s'intéresse tout d'abord au diagnostic et à l'analyse des statistiques descriptives. Dans le domaine des processus en temps continu, cette difficile tâche peut être accomplie en ayant recours à la méthode d'estimation de l'autocorrélation par noyau. Cet article présente le cadre conceptuel, la procédure d'estimation et ses propriétés asymptotiques. Pour illustrer, un exemple empirique est aussi inclus.Subordinated Processes, Irregularly Spaced Data, Continuous Time Processes, Nonparametric Methods, Processus subordonnés, Observations manquantes, Processus en temps continu, Méthodes non paramétriques

    Stochastic Volatility and Time Deformation: An Application to Trading Volume and Leverage Effects

    Get PDF
    In this paper, we study stochastic volatility models with time deformation. Such processes relate to early work by Mandelbrot and Taylor (1967), Clark (1973), Tauchen and Pitts (1983), among others. In our setup, the latent process of stochastic volatility evolves in a operational time which differs from calendar time. The time deformation can be determined by past volume of trade, past price changes, possibly with an asymmetric leverage effect, and other variables setting the pace of information arrival. The econometric specification exploits the state-space approach for stochastic volatility models proposed by Harvey, Ruiz and Shephard (1994) as well as matching moment estimation procedures using SNP densities of stock returns and trading volume estimated by Gallant, Rossi and Tauchen (1992). Daily data on the price changes and volume of trade of the S&P 500 over a 1950-1987 sample are investigated. Supporting evidence for a time deformation representation is found and its impact on the behaviour of price series and volume is analyzed. We find that increases in volume accelerate operational time, resulting in volatility being less persistent and subject to shocks with a higher innovation variance. Downward price movements have similar effects while upward price movements increase persistence in volatility and decrease the dispersion of shocks by slowing down the operational time clock. We present the basic model as well as several extensions, in particular, we formulate and estimate a bivariate return-volume stochastic volatility model with time deformation. The latter is examined through bivariate impulse response profiles following the example of Gallant, Rossi and Tauchen (1993). Nous proposons un modèle de volatilité stochastique avec déformation du temps suite aux travaux par Mandelbrot et Taylor (1967), Clark (1973), Tauchen et Pitts (1983) et autres. La volatilité est supposée être un processus qui évolue dans un temps déformé déterminé par l'arrivée de l'information sur le marché d'actifs financiers. Des séries telles que le volume de transaction et le rendement passé sont utilisées pour identifier la correspondance entre le temps calendrier et opérationnel. Le modèle est estimé soit par la procédure de pseudo maximum de vraisemblance comme proposé par Harvey et al. (1994), soit par des méthodes d'inférence indirecte utilisant la densité SNP de Gallant, Rossi et Tauchen (1992). Dans la partie empirique, nous utilisons des données journalières de la bourse de New York. Un modèle univarié de volatilité stochastique ainsi qu'un modèle bivarié de volume et rendements avec déformation du temps sont analysés.Stochastic volatility; Trading volume, Volatilité stochastique ; Volume de transaction

    Trading Patterns, Time Deformation and Stochastic Volatility in Foreign Exchange Markets

    Get PDF
    Globalization of trading in foreign exchange markets is a principal source of the daily and weekly seasonability in market volatility. One way to model such phenomena is to adopt a framework where market volatility is tied to the intensity of (world) trading through a subordinated stochastic process representation. In this paper we combine elements from Clark (1973), Dacorogna et al. (1993) and Ghysels and Jasiak (1994), and present a stochastic volatility model for foreign exchange markets with time deformation. The time deformation is based on daily patterns of arrivals of quotes and bid-ask spreads as well as returns. For empirical estimation we use the QMLE algorithm of Harvey et al. (1994), adopted by Ghysels and Jasiak for time deformed processes, and applied to the Olsen and Associates high frequency data set. La globalisation des échanges sur le marché mondial des taux de change est une des sources principales des effets saisonniers journaliers et hebdomadaires dans la volatilité des prix. Une façon de modéliser ces phénomènes consiste à utiliser la spécification d'un processus subordonné pour formaliser la relation entre la volatilité et l'intensité des échanges. Cet article, fondé sur les idées de Clark (1973), Dacorogna et al. (1993) et Ghysels et Jasiak (1994), présente un modèle de volatilité stochastique avec la déformation du temps pour les séries des taux de change. La déformation du temps est déterminée par la dynamique du flux des cotations à travers la journée, les fourchettes de prix passées ainsi que les rendements antérieurs. Dans la partie empirique, nous appliquons ce modèle aux données de haute fréquence de Olsen and Associates. La méthode d'estimation que nous avons employée est le Quasi-Maximum de Vraisemblance proposé par Harvey et Stock, adapté par Ghysels et Jasiak aux processus déformés du temps.

    Three Essays on Econometrics of Latent Variables

    Full text link
    Numéro de référence interne originel : a1.3 g 6
    corecore