10,444 research outputs found
Markovian Processes, Two-Sided Autoregressions and Finite-Sample Inference for Stationary and Nonstationary Autoregressive Processes
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Dans cet article, nous proposons des procédures d'inférence valides à distance finie pour des modèles autorégressifs (AR) stationnaires et non-stationnaires. La méthode suggérée est fondée sur des propriétés particulières des processus markoviens combinées à une technique de subdivision d'échantillon. Les résultats sur les processus de Markov (indépendance intercalaire, troncature) ne requièrent que l'existence de densités conditionnelles. Nous démontrons les propriétés requises pour des processus markoviens multivariés possiblement non-stationnaires et non-gaussiens. Pour le cas des modèles de régression linéaires avec erreurs autorégressives d'ordre un, nous montrons comment utiliser ces résultats afin de simplifier les propriétés distributionnelles du modèle en considérant la distribution conditionnelle d'une partie des observations étant donné le reste. Cette transformation conduit à un nouveau modèle qui a la forme d'une autorégression bilatérale à laquelle on peut appliquer les techniques usuelles d'analyse des modèles de régression linéaires. Nous montrons comment obtenir des tests et régions de confiance pour la moyenne et les paramètres autorégressifs du modèle. Nous proposons aussi un test pour l'ordre d'une autorégression. Nous montrons qu'une technique de combinaison de tests obtenus à partir de plusieurs sous-échantillons peut améliorer la performance de la procédure. Enfin la méthode est appliquée à un modèle de l'investissement aux États-Unis.Time series, Markov process, autoregressive process, autocorrelation, dynamic model, distributed-lag model, two-sided autoregression, intercalary independence, exact test, finite-sample test, Ogawara-Hannan, investment, Séries chronologiques, processus de Markov, processus autorégressif, autocorrélation, modèle dynamique, modèle à retards échelonnés, autorégression bilatérale, indépendance intercalaire, test exact, Ogawara-Hannan, investissement
Hitting Times in Markov Chains with Restart and their Application to Network Centrality
Motivated by applications in telecommunications, computer scienceand physics,
we consider a discrete-time Markov process withrestart. At each step the
process eitherwith a positive probability restarts from a given distribution,
orwith the complementary probability continues according to a Markovtransition
kernel. The main contribution of the present work is thatwe obtain an explicit
expression for the expectation of the hittingtime (to a given target set) of
the process with restart.The formula is convenient when considering the problem
of optimizationof the expected hitting time with respect to the restart
probability.We illustrate our results with two examplesin uncountable and
countable state spaces andwith an application to network centrality
On the Coupling Property of L\'{e}vy Processes
We give necessary and sufficient conditions guaranteeing that the coupling
for L\'evy processes (with non-degenerate jump part) is successful. Our method
relies on explicit formulae for the transition semigroup of a compound Poisson
process and earlier results by Mineka and Lindvall-Rogers on couplings of
random walks. In particular, we obtain that a L\'{e}vy process admits a
successful coupling, if it is a strong Feller process or if the L\'evy (jump)
measure has an absolutely continuous component.Comment: 14 page
Processus aléatoires et applications
Première partie: Chaînes de Markov - 1. Chaînes de Markov sur un ensemble fini - 2. Chaînes de Markov sur un ensemble dénombrable - 3. Application aux algorithmes MCMC - Deuxième partie: Processus de sauts et files d'attente - 4. Rappels de probabilités - 5. Le processus ponctuel de Poisson - 6. Processus markoviens de sauts - 7. Files d'attente - Appendice: Solutions d'exercices.DEACours de Master 2 professionnel. Chaînes de Markov. Processus ponctuel de Poisson. Files d'attente
On the local times of noise reinforced Bessel processes
We investigate the effects of noise reinforcement on a Bessel process of di-
mension d ∈ (0, 2), and more specifically on the asymptotic behavior of its additive functionals.
This leads us to introduce a local time process and its inverse. We identify the latter as an
increasing self-similar (time-homogeneous) Markov process, and from this, several explicit
results can be deduced.
On étudie les effects du renforcement du bruit sur un processus de Bessel de
dimension d ∈ (0, 2), et plus précisément sur le comportement asymptotique de ses fonction-
nelles additives. Cela nous conduit à introduire le processus du temps local et son inverse. Nous
identifions ce dernier comme un processus de Markov (homogène en temps) auto-similaire, ce
qui conduit à plusieurs résultats explicites
A Ciesielski-Taylor type identity for positive self-similar Markov processes
The aim of this note is to give a straightforward proof of a general version
of the Ciesielski-Taylor identity for positive self-similar Markov processes of
the spectrally negative type which umbrellas all previously known
Ciesielski-Taylor identities within the latter class. The approach makes use of
three fundamental features. Firstly a new transformation which maps a subset of
the family of Laplace exponents of spectrally negative L\'evy processes into
itself. Secondly some classical features of fluctuation theory for spectrally
negative L\'evy processes as well as more recent fluctuation identities for
positive self-similar Markov processes
- …