10,444 research outputs found

    Markovian Processes, Two-Sided Autoregressions and Finite-Sample Inference for Stationary and Nonstationary Autoregressive Processes

    Get PDF
    In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method. Dans cet article, nous proposons des procédures d'inférence valides à distance finie pour des modèles autorégressifs (AR) stationnaires et non-stationnaires. La méthode suggérée est fondée sur des propriétés particulières des processus markoviens combinées à une technique de subdivision d'échantillon. Les résultats sur les processus de Markov (indépendance intercalaire, troncature) ne requièrent que l'existence de densités conditionnelles. Nous démontrons les propriétés requises pour des processus markoviens multivariés possiblement non-stationnaires et non-gaussiens. Pour le cas des modèles de régression linéaires avec erreurs autorégressives d'ordre un, nous montrons comment utiliser ces résultats afin de simplifier les propriétés distributionnelles du modèle en considérant la distribution conditionnelle d'une partie des observations étant donné le reste. Cette transformation conduit à un nouveau modèle qui a la forme d'une autorégression bilatérale à laquelle on peut appliquer les techniques usuelles d'analyse des modèles de régression linéaires. Nous montrons comment obtenir des tests et régions de confiance pour la moyenne et les paramètres autorégressifs du modèle. Nous proposons aussi un test pour l'ordre d'une autorégression. Nous montrons qu'une technique de combinaison de tests obtenus à partir de plusieurs sous-échantillons peut améliorer la performance de la procédure. Enfin la méthode est appliquée à un modèle de l'investissement aux États-Unis.Time series, Markov process, autoregressive process, autocorrelation, dynamic model, distributed-lag model, two-sided autoregression, intercalary independence, exact test, finite-sample test, Ogawara-Hannan, investment, Séries chronologiques, processus de Markov, processus autorégressif, autocorrélation, modèle dynamique, modèle à retards échelonnés, autorégression bilatérale, indépendance intercalaire, test exact, Ogawara-Hannan, investissement

    Processus de Markov

    Full text link

    Hitting Times in Markov Chains with Restart and their Application to Network Centrality

    Get PDF
    Motivated by applications in telecommunications, computer scienceand physics, we consider a discrete-time Markov process withrestart. At each step the process eitherwith a positive probability restarts from a given distribution, orwith the complementary probability continues according to a Markovtransition kernel. The main contribution of the present work is thatwe obtain an explicit expression for the expectation of the hittingtime (to a given target set) of the process with restart.The formula is convenient when considering the problem of optimizationof the expected hitting time with respect to the restart probability.We illustrate our results with two examplesin uncountable and countable state spaces andwith an application to network centrality

    On the Coupling Property of L\'{e}vy Processes

    Get PDF
    We give necessary and sufficient conditions guaranteeing that the coupling for L\'evy processes (with non-degenerate jump part) is successful. Our method relies on explicit formulae for the transition semigroup of a compound Poisson process and earlier results by Mineka and Lindvall-Rogers on couplings of random walks. In particular, we obtain that a L\'{e}vy process admits a successful coupling, if it is a strong Feller process or if the L\'evy (jump) measure has an absolutely continuous component.Comment: 14 page

    Processus aléatoires et applications

    Get PDF
    Première partie: Chaînes de Markov - 1. Chaînes de Markov sur un ensemble fini - 2. Chaînes de Markov sur un ensemble dénombrable - 3. Application aux algorithmes MCMC - Deuxième partie: Processus de sauts et files d'attente - 4. Rappels de probabilités - 5. Le processus ponctuel de Poisson - 6. Processus markoviens de sauts - 7. Files d'attente - Appendice: Solutions d'exercices.DEACours de Master 2 professionnel. Chaînes de Markov. Processus ponctuel de Poisson. Files d'attente

    On the local times of noise reinforced Bessel processes

    Get PDF
    We investigate the effects of noise reinforcement on a Bessel process of di- mension d ∈ (0, 2), and more specifically on the asymptotic behavior of its additive functionals. This leads us to introduce a local time process and its inverse. We identify the latter as an increasing self-similar (time-homogeneous) Markov process, and from this, several explicit results can be deduced. On étudie les effects du renforcement du bruit sur un processus de Bessel de dimension d ∈ (0, 2), et plus précisément sur le comportement asymptotique de ses fonction- nelles additives. Cela nous conduit à introduire le processus du temps local et son inverse. Nous identifions ce dernier comme un processus de Markov (homogène en temps) auto-similaire, ce qui conduit à plusieurs résultats explicites

    A Ciesielski-Taylor type identity for positive self-similar Markov processes

    Get PDF
    The aim of this note is to give a straightforward proof of a general version of the Ciesielski-Taylor identity for positive self-similar Markov processes of the spectrally negative type which umbrellas all previously known Ciesielski-Taylor identities within the latter class. The approach makes use of three fundamental features. Firstly a new transformation which maps a subset of the family of Laplace exponents of spectrally negative L\'evy processes into itself. Secondly some classical features of fluctuation theory for spectrally negative L\'evy processes as well as more recent fluctuation identities for positive self-similar Markov processes
    • …
    corecore